Lesezeichen
‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, „Wie viele Gurken wurden in den letzten Tagen vernichtet?“, antwortete: Meinten Sie: „Wie viele Türken wurden in den letzten Tagen vernichtet?“ Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie „Schuhe“ eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort „Gorilla“ ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.


Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.