‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, "Wie viele Gurken wurden in den letzten Tagen vernichtet?", antwortete: Meinten Sie: "Wie viele Türken wurden in den letzten Tagen vernichtet?" Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie "Schuhe" eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort "Gorilla" ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.

Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.


21 Kommentare

  1. Avatar  Denim Eq

    warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen.
    erklärt das Video (sehr wahrscheinlich) nicht, wenn künstliche Intelligenz (KI) die angelernt wird und eben NICHT algorithmisch programmiert wurde (und damit auch berechenbar{er}), das Thema des Videos ist.

    Auch wenn reale KI eine Mischung zwischen Programmen und neuronalen Netzen sind: DIE ‚Überraschungen‘ (ob böse oder gemein) die sich auch nicht direkt in irgendwelchen genau bekannten Daten, sondern nur in Gewichten die keine direkte Zuordnung haben, verbergen, DIE stammen von den Netzen und nicht von nachvollziehbaren Algorithmen.

 

Bitte melden Sie sich an, um zu kommentieren.

Anmelden Registrieren