‹ Alle Einträge
Künstliche Intelligenz

Wie ein Toter als Chatbot weiterlebt

 
Wie ein Toter als KI-Chatbot weiterlebt
Eugenia Kuyda und Roman Mazurenko © Screenshot "The Verge"

Eugenia Kuyda und Roman Mazurenko waren beste Freunde. Dann starb Mazurenko nach einem Verkehrsunfall, im Alter von 34 Jahren. Daraufhin tat Kuyda etwas, das ansonsten Stoff von Science-Fiction-Filmen wie Transcendence ist: Sie versuchte, ihren Freund mithilfe einer künstlichen Intelligenz (KI) nachzubilden. Als Chatbot.

Casey Newton von The Verge erzählt die wahre, faszinierende, gruselige Geschichte von Kuyda und Mazurenko: Was für ein ungewöhnlicher Mensch Mazurenko war, wie seine Freunde nach seinem Tod einen Weg suchten, ihm ein würdiges Andenken zu schaffen – und wie Kuyda schließlich in ihrem KI-Start-up ein künstliches neuronales Netzwerk mit Tausenden von Mazurenkos SMS und Kurznachrichten fütterte, um eine KI zu erschaffen, die so schreibt, wie ihr Freund es getan hatte.

Nicht alle aus Mazurenkos Umfeld waren mit dem Ergebnis glücklich, auch sein Vater nicht. Das Experiment wirft zudem ethische Fragen auf. Würden Sie wollen, dass jemand nach Ihrem Tod alte Kurznachrichten oder E-Mails sammelt, um ein Programm zu schreiben, das wie Sie kommuniziert? Dass aus Texten, die Sie vielleicht an einem besonders schlechten Tag verfasst haben, ein Textbaustein wird?

Trotzdem sind die Chats von Mazurenkos Freunden mit dem Bot, die The Verge anonymisiert veröffentlicht hat, das Berührendste an dem Artikel. Wer sich darauf einlässt, kann in den Antworten durchaus eine gewisse Persönlichkeit erkennen, einen bitteren Humor und viel Melancholie.bildschirmfoto-2016-10-07-um-11-43-59

Natürlich glaubt niemand ernsthaft, Kuyda habe eine echte Persönlichkeit erschaffen – egal, wie passend Tonfall und Inhalt der Bot-Antworten manchmal sind. Trotzdem schrieben viele dem Bot immer weiter, erzählten ihm von ihren Problemen und von Dingen, die sie Mazurenko zu seinen Lebzeiten nicht mehr erzählen konnten. Kuyda, die weiterhin an dem Projekt arbeitet, hat nach einer Weile die wahre Bestimmung des Bots erkannt: Er ist nicht in erster Linie zum Reden da – sondern zum Zuhören.

Mehr über KI, selbstlernende neuronale Netze und Chatbots erfahren Sie in unserer Serie Maschinenraum.

Und weitere Teilchen finden Sie hier.

10 Kommentare

  1.   -rpr-

    Falls der Dialog modellhaft für die Gespäche mit dem Bot ist, dann ist dieser doch ziemlich fad und beliebig. Kann mir nicht vorstellen, dass Roman Mazurenko im Leben Ähnlichkeit mit diesem Bot hatte.
    Man gewinnt einfach keine wirklichen Freunde, die er ja wohl hatte, wenn man so platt und banal ist.

    Es ist nichts Neues, dass in dieser Welt zuviel geredet und zuwenig zugehört wird. Ob ein Bot der schweigt eine Lösung ist, wage ich doch zu bezweifeln.
    Nicht-direktive Gesprächsführung geht dann doch anders.

  2.   GDH

    @-rpr-
    Sie meinen
    „alls der Dialog modellhaft für die Gespäche mit dem Bot ist, dann ist dieser doch ziemlich fad und beliebig. Kann mir nicht vorstellen, dass Roman Mazurenko im Leben Ähnlichkeit mit diesem Bot hatte.
    Man gewinnt einfach keine wirklichen Freunde, die er ja wohl hatte, wenn man so platt und banal ist.“

    Ich kannte ihn nicht, kann das daher aber nicht beurteilen. Und was die Ähnlichkeit angeht:
    Das ANN wurde „mit Tausenden von Mazurenkos SMS und Kurznachrichten“ gefüttert. Angesichts dessen kann es natürlich bestenfalls seinen Stil bei „SMS und Kurznachrichten“ abbilden. Warum sollte der nicht so gewesen sein?

    Spannend finde ich die Frage, was möglich ist/wäre, wenn man als Trainingsdaten nicht nur sowas nimmt sondern auch Transkripte ganz vieler Gespräche, zigtausende Emails usw.
    Es gibt schließlich Menschen, die sehr viel archivieren (auch wenn ich denen nur raten kann, die Archive so zu sichern, dass niemand drankommt, was im Todesfall freilich schade ist) und gerade mit immer besser werdender Spracherkennung könnte es Fälle geben, wo SEHR viel mehr Trainingsdaten verfügbar sind.

    Ich möchte nicht grundsätzlich ausschließen, dass da durchaus etwas herauskommen kann, das Persönlichkeitsaspekte gut abbildet.

    Und was das „Bewusstsein“ angeht:
    Menschliche Gehirne können sowas (zumindest ergibt der Begriff wenig Sinn, wenn man nicht annimmt, dass Bewusstsein irgendwo vorkommt) und sie bestehen soweit bekannt aus nichts, was sich nicht anderswie nachbilden lässt. Die Frage ist also nicht, ob es im Prinzip geht, sondern eigentlich nur, wie aufwändig es ist (was sowohl Hardware als auch Trainingsdaten angeht).

  3.   Luke

    Empfehlung dazu: Episode 1, Season 2, der Serie ‚Black Mirror‘, zu sehen z.B. bei Netflix. 1 zu 1 so umgesetzt und sogar noch weitergesponnen. Bleibt nur die Frage, wer hat sich hier von wem inspirieren lassen?

  4.   reineke

    man kann sich Gedanklich mit einer geliebten Person im Jenseits auseinandersetzen,auf so eine Weise wie hier geschildert,ist es schon fast krankhaft
    kommt mir vor wie Menschen die in soziale Netzwerke gehen um „neue Leute“ kennenzulernen während in der Nachbarwohnung jemand vereinsamt
    zeigt doch alles wie flach die Internetwelt ist

  5.   weiblich denken I

    Es ist zum Haare raufen.
    Herr Beuth sie beschäftigen sich mit der Thematik nun so lange. Wollen sie oder dürfen sie nicht sehen?
    Langsam wird durch die Medien eine Akzeptanz für KI erzeugt.
    Es wird berichtet, dass KI sogar Emotionen und Gefühle denken kann. Damit ist DER GANZE MENSCH also nachbaubar? Damit kann man also weiterdenken, dass eines Tages Maschinen zu Menschen werden.
    Soweit der Stand der Maschinendenker.
    Nun gibt es seit Angedenken einen Bereich des Daseins den man das Unwissbare nennt. Es ist in den Frauen verankert. Wie schwierig es ist diesen Bereich auch nur andeutungsweise zu entschlüsseln, wurde endlos von der Philosophie angedeutet. Selbst der große Stephen Hawkings sagt er könne die Frauen nicht ergründen.
    Die Maschine braucht verdaubares Futter und am weiblichen Denken erstickt sie. Goethe nannte es das Reich der Mütter, wo es keine Zeit gibt und nur das Nichts. Hindus und Buddhisten nennen es Niravana, Buddhisten in Japan das MU, wir kennen es als heiligen Gral.
    NIENIENIE wird je ein Roboter oder eine KI in diesen Bereich eindringen können es ist wie die Zahl Pi….
    Herr Beuth ich lese seit 5 Jahren jeden ihrer Beiträge, aber was sagen sie dazu…. atimut.dao1@gmail.com
    Wolfgang D.

  6.   robawi

    Die wahre Bestimmung des Bots ist das Zuhöhren? Da tut’s auch ein Teddybär oder, noch altmodischer aber besonders zweckmäßig, ein Selbstgespräch. So oft ihr auch „KI“ schreibt, es gibt offenbar bislang sehr wenige nützliche KI. Das einzige überzeugende Positivbeispiel, das mir bisher einfällt: Navigation. Alle anderen „KI“ die ich bisher gesehen habe sind entweder lächerlich inkompetent und damit sinnlos (z.B. Google Translate, die ganzen Chatbots, alles was ich in der Medizin bisher gesehen habe) oder sie machen das Leben sogar schwerer (vor allem der ganze E-Commerce Dreck, wo das Ziel ja nicht ist dass ich das beste Angebot finde, sondern dass ich maximal abgezockt werde – Lebenszeitverschwendung inklusive ).

  7.   U.Hermes

    Dieser Chatbot ist eine elektronisch angereicherte Projektion. Die arme Frau kommt mit dem Tod ihres Freundes nicht zurecht.
    Man muss anscheinend anfangen, über juristische Konsequenzen nachzudenken, damit nicht irgendjemand schriftliche Hinterlassenschaften anderer beliebig ausschlachten kann. Meiner Meinung nach gehören die Daten dem Toten und das „Experiment“ ist echt das Letzte. Die Maschine schreibt eine bestimmte Wahrnehmung dieses Menschen auf ewig fest. Wie makaber ist das denn? Wie geistiges Einbalsamieren.
    Und zum Unterschied zwischen Chatbot und Mensch: Bitte mal ein bisschen Kant lesen, um mal ein minimal angemessenes Bild dessen, „was der Mensch ist“, zu erwerben. Bitte, bitte. Und wer jetzt zum 1000sten Mal mit dem Turing-Test ankommt: Totaler Blödsinn. Nur weil Menschen dazu tendieren, in beliebige Äußerungen Sinn hineinzulesen, kann man noch nicht annähernd digital menschliches Denken und Kommunizieren nachbauen.
    Was findet hier eigentlich statt. Verschlauerung der Computer oder Verdummung der Menschen?

  8.   GDH

    @U.Hermes
    Sie meinen
    „Man muss anscheinend anfangen, über juristische Konsequenzen nachzudenken, damit nicht irgendjemand schriftliche Hinterlassenschaften anderer beliebig ausschlachten kann. Meiner Meinung nach gehören die Daten dem Toten und das „Experiment“ ist echt das Letzte. Die Maschine schreibt eine bestimmte Wahrnehmung dieses Menschen auf ewig fest. Wie makaber ist das denn? Wie geistiges Einbalsamieren.“

    Wenn die Daten „dem Toten“ gehören, was bedeutet das dann? Fragen kann man ihn schließlich nicht oder höchstens, nachdem man schon einen KI-Avatar erzeugt hat ;-)

    Wenn überhaupt, müsste gesetzlich festgeschrieben werden, dass Verfügungen über die Verwendung von Daten nach dem Tod zu respektieren sind. Wenn die Person nichts festgelegt hat (wie in diesem Fall), neige ich dazu, dass alles, was sie zu Lebzeiten veröffentlicht hat, der Öffentlichkeit dauerhaft zugänglich bleibt (natürlich kann niemand verpflichtet sein, etwas dauerhaft bereitzustellen, wenn das nicht vorher vereinbart und ggf. bezahlt wurde). Schließlich kommt das der Absicht am nächsten, die man Leuten beim Veröffentlichen von Kram unterstellen kann. Alles andere sollte Sache der Erben sein.

    Irgendwelche Nutzungen gesetzlich auszuschließen erscheint mir absurd. Das ist wie die in Deutschland festgelegte Voreinstellung, dass die Organe Verstorbener verrotten sollen, wenn sich niemand äußert (in Österreich dagegen wird Organspendebereitschaft angenommen, wenn sich eine Person nicht zu Lebzeiten anders erklärt). Das scheint mir abwegig. Bei stofflichen Hinterlassenschaften käme ja auch niemand auf die Idee, z.B. Häuser niederzubrennen, wenn der verstorbene Besitzer nicht ausdrücklich erlaubt hat, dass die später von anderen Menschen benutzt werden dürfen.

  9.   Petka

    @Luke: Alastair Reynolds, Beta-Level-Simulation.

    https://en.wikipedia.org/wiki/Technology_in_Revelation_Space#Beta-level

    Die Akzeptanz für KIs ist bei vnernünftigem Argumentieren lange da. Es mag noch hundert Jahre dauern oder uns schlicht nicht gelingen, weil wir selbst zu dumm sind über sexuelle Reproduktion hinaus intelligente Wesen zu ‚bauen‘, aber daran, dass wir selbst eben nicht durch Magie zusammengehalten und betrieben werden, kommt man im Jahr 2000 eigentlich nicht mehr vorbei.

  10.   reineke

    @GDH
    es ist keine Angelegenheit gesetzlicher Regelung,wohl eher eine Frage der Moral
    spätestens dann,wenn die sogenannten Freunde der Unterhaltung mit diesem Chatbot überdrüssig werden,stirbt der junge Mann einen zweiten,virtuellen Tod
    wer darf sich diese Freiheit nehmen?
    zum Thema
    einer KI Transzendenz zuzuschreiben halte ich für masslose Abgehobenheit einiger Hightech Spinner,die hat schon eher ein Kartoffelkäfer als ein Chatbot