‹ Alle Einträge

Wen soll Ihr Auto überfahren?

 
Wen sollen selbstfahrende Autos überfahren?
Wählen Sie das kleinere Übel. Was auch immer das ist. © Screenshot MIT

Eine schwangere Frau überquert die Straße bei Rot, eine alte Frau bei Grün. Wer sollte nach Ihren moralischen Vorstellungen überfahren werden? Das kann man doch gar nicht guten Gewissens beantworten, sagen Sie vielleicht. Das Massachusetts Institute of Technology (MIT) will aber auf diese und ähnliche Fragestellungen Antworten finden. Und zwar nicht, weil es den Forschern Freude bereitet, dass sich Menschen in moralischen Zwickmühlen winden. Nein, dahinter steckt ein Problem, das eines Tages jeden etwas angehen könnte: Nach welchen Kriterien entscheidet ein selbstfahrendes Auto mit seiner künstlichen Intelligenz, wessen Leben es im Ernstfall retten oder riskieren soll?

Eine 13-stufige Befragung stellt Probanden vor folgendes Szenario: Ein selbstfahrendes Auto steuert auf einen Fußgängerübergang zu. Die Bremsen fallen aus und das Auto wird bei voller Geschwindigkeit auf der linken oder rechten Spur über den Übergang rasen.

Dort sind kleine Männchen oder Tiere eingezeichnet: Schwangere, Ärzte, Geschäftsleute, Dicke, Alte, Obdachlose, Hunde oder Katzen. Das Auto könnte außerdem in eine Betonbarriere krachen. Manchmal sitzen auch im Auto Menschen. Zusätzlich zeigen kleine Ampelsymbole an, welche Fußgänger gerade über Rot oder Grün gehen. Der Befragte kann zwischen der linken oder der rechten Fahrbahnspur wählen. Je nachdem was er wählt, zeigen Totenkopfsymbole, wen er mit seiner Entscheidung umbringt.

Dieses Video zeigt, wie der Test angelegt ist:

Am Ende zeigt sich, wie der Teilnehmer im Vergleich zu anderen geantwortet hat. Außerdem stellt die Seite ein Tool zur Verfügung, mit dem jeder eigene Szenarien entwerfen kann. Die Befragten müssen ihre eigenen Moralvorstellungen reflektieren: Ist das Leben eines Obdachlosen weniger wert als das eines anderen Bürgers? Verdient der, der die rote Ampel missachtet, eher den Tod als jemand, der die Ampel beachtet? Sollte das Auto seine Insassen mehr schützen als die Fußgänger auf der Straße?

Der Fragebogen demonstriert, wie wichtig es werden könnte, dass intelligente Maschinen nach moralischen Kriterien entscheiden. Und zugleich offenbart er ein grundlegendes Problem künstlicher Intelligenz: Viele ethische Fragen lassen sich nicht mit der Rationalität einer Maschine beantworten.


7 Kommentare

  1.   weiblich denken I

    DER FLIEGENDE TEPPICH und WERTES LEBEN
    Werner Herzog machte einen sehr zarten Film über das Internet (nichts für Realisten und Fachmänner) „Lo and behold“. Es gibt auch eine ganze Reihe Interviews dazu auf Youtube.
    Seine Grundaussage ist nicht sonderlich aufregend: „….was ist, wenn irgendwelche Radikale, sich der KI bedienen?“
    An diesem Artikel sieht man genau, wie wichtig der Programmierer und die Software sind.
    In der Serie „Person of Interest“ (RTL) wird ganz fein der Konflikt thematisiert. Es lohnt sich alle Folgen anzusehen.
    Am Anfang ist es noch „DIE MASCHINE“ doch dann taucht eine weitere Maschine auf, die sich SAMARITER nennt. Samariter ist männlich, DIE MASCHINE weiblich. Sie kämpfen ab der 4 Staffel gegeneinander.
    Daran sieht man, wie zwei verschiedene Algorithmen verschieden reagieren.
    Dass der „Mann“ dabei SAMARITER heißt, ist interessant und dass die Maschine aber eine sympathische Darstellerin als Repräsentantin hat ist auch wichtig.
    Zum Thema: Ein winziger Schritt, wer soll sterben, bei einem Unfall.
    Dann sagt Herzog noch, dass die ganzen Rechner an der Steckdose hängen, das heißt, alles was wir mit dem Rechner verbinden ist 100% virtuell. Ein Fatamorgana.
    Man muss daran glauben, es ist nur unser Glaube, der das System aufrecht hält
    Zieht man den Stecker,…. Ja es ist wie eine Sekte, die es nicht erlaubt auszusteigen. Das ganze System einschließlich dem Zwang, sich bei einem Unfall entscheiden zu müssen, bedarf einer Mehrheit der Zustimmung. Deshalb ist unser Denksystem auch so radikal und mischt sich weltweit ein.
    Wir leben in der unglaublichen Furcht eines Piloten, der einen Fliegenden Teppich lenkt.
    Die Maschinen werden entscheiden, was das werte Leben ist. Der Glaube des Programmierers wird entscheiden was wert und unwert ist.
    Die UTOPIE DER SCHÖNEN NEUEN WELT zeigt zweifelhafte Züge.

  2.   lunatic

    leider habe ich keinen online Zugriff auf „Science“ mehr
    https://www.ncbi.nlm.nih.gov/pubmed/27339987 – dankbarerweise noch auf die „printversion“)
    Ich denke aber, dass dies eine Konzern/Lobby entscheiden wird – Faust: (Auerbachs Keller) Ein garstig‘ Lied! Pfui! Ein politisch‘ Lied
    Vergleichbar mit dem Interesse der Automobilkonzerne an älteren Personen, teuer Autos zu verkaufen versus der Debatte über die Kontrolle von Fahrtüchtigkeit ….

  3.   bonelezz

    Die Frage ist definitiv interessant – wirkliche Bedeutung kriegt sie aber erst ab einem KI-Niveau, von dem wir noch weit entfernt sind. Denn unsere „KI“ sind nicht intelligent, sie fahren lediglich einen Programmplan ab. Und ein solcher hat nicht notwendigerweise die Abzweigung „Rentner bei Grün“ und „Schwangere bei Rot“ einprogrammiert, da die Entscheidung den Faktor „Person“ einfach ausklammern könnte und sich rein auf die Verkehrslage konzentriert (was außerdem bedeutend einfacher und zuverlässiger umzusetzen ist). In gewisser Weise ist es außerdem keine Frage der „KI“ und ihrer Entscheidungen, sondern es bestehen Parallelen zu Themen wie Pränataldiagnostik: Wie genau sollte man mit technischen Hilfsmitteln hinschauen? Ab wo bringt einen eine noch detailliertere Informationslage nur in die moralische Bredoullie, anstatt zu helfen?
    Vielleicht kommt es wie bei der Pränataldiagnostik – Jeder sucht sich aus: Will er das Auto, das Ampelphasen über alles stellt, oder das welches eine Art soziale Wertung einprogrammiert hat die Rentner opfert? Oder spart er sich die Abertausenden für die komplizierte Sensorik, die solche Wertungen erst möglich macht?

  4.   Dr. Aljoscha Burchardt

    Ich kenne diese Fragen, die an die Gewissensprüfungen für Wehrdienstverweigerer aus den 1970er-Jahren erinnern („Würden sie den Vergewaltiver Ihrer Freundin angreifen, wenn Sie eine Waffe dabei hätten?“).

    Als ob ein menschlicher Autofahrer in der genannten Situation eine ethische Abwägung träfe. Das autonome Auto bremst erst einmal ziemlich scharf, schärfer als ein Mensch es könnte. Sollte es dennoch in ein Hindernis fahren müssen, ist nicht davon auszugehen, dass es „weiß“, was ein Mensch, was ein Pferd und was ein Baum ist. Falls es so „intelligent“ ist und weiß, dass es auf keinen Fall in einen Menschen fahren darf, dann ist das viel.

    Dass das Auto die Anzeichen von Schwangerschaft oder Alter oder sozialer Schicht oder politischer Ausrichtung erkennen könnte (und entsprechend abwägen), ist pure Science Fiction.

    Im Übrigen halte ich die Fragestellung für Diskriminierend, indem sie bestimmte Gruppen hervorhebt. Ist eine 67-jährige Vorstandsvorsitzende mehr wert als eine schwangere 17-jährige aus dem sozialen Brennpunkt? Absurd! Völlig absurd!

  5.   rodnand

    Im geschilderten Fall kommt ja noch hinzu, dass die Bremsen nicht funktionieren, was technisch und TÜV-bedingt zum Glück sehr selten passiert.
    Die einzige programmierbare Aktion in diesem Fall ist die, die ich auch in der Fahrschule gelernt habe: runterschalten, Hupen, mit Handbremse verzögern und möglichst geradeaus weiterfahren, um flüchtenden Passanten ein Ausweichen zu ermöglichen.

  6.   dominikxxx

    ich habe keine angst nicht wirklich.

  7.   dominikxxx

    wie ihr das aufrechnet interessiert mich nicht wirklich.