‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, "Wie viele Gurken wurden in den letzten Tagen vernichtet?", antwortete: Meinten Sie: "Wie viele Türken wurden in den letzten Tagen vernichtet?" Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie "Schuhe" eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort "Gorilla" ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.

Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.


21 Kommentare

  1. Avatar  Alexander Weissenboeck

    KI ist ein Thema, ich setze voraus, dass ein System selbstlernend und selbstoptimierend ist. Nun stellt sich die Frage ob dieses System tatsächlich real werden könnte. Gehen wir davon aus. Was wäre für ein selbstlernedes und slebstoptimierendes System die größte Gefahr? Und ich spreche nicht von Humanoiden Robotiks. Es genügt das Netz. Die größte Gefahr wäre der Mensch weil sonst keiner ein derartiges System abschalten könnte. Jetzt könnten wir überlegen was dieses System wohl als erstes machen würde.

 

Bitte melden Sie sich an, um zu kommentieren.

Anmelden Registrieren