‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, "Wie viele Gurken wurden in den letzten Tagen vernichtet?", antwortete: Meinten Sie: "Wie viele Türken wurden in den letzten Tagen vernichtet?" Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie "Schuhe" eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort "Gorilla" ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.

Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.


20 Kommentare

  1.   Denim Eq

    warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen.
    erklärt das Video (sehr wahrscheinlich) nicht, wenn künstliche Intelligenz (KI) die angelernt wird und eben NICHT algorithmisch programmiert wurde (und damit auch berechenbar{er}), das Thema des Videos ist.

    Auch wenn reale KI eine Mischung zwischen Programmen und neuronalen Netzen sind: DIE ‚Überraschungen‘ (ob böse oder gemein) die sich auch nicht direkt in irgendwelchen genau bekannten Daten, sondern nur in Gewichten die keine direkte Zuordnung haben, verbergen, DIE stammen von den Netzen und nicht von nachvollziehbaren Algorithmen.

  2.   GanzImGlück

    Soll die Suchmaschine Ergebnisse, die nicht in das eigene Weltbild passen, schlicht ausblenden? Sollen Zensur-Mainzelmännchen alle Ergebnisse filtern, die abseits der eigenen Wohlfühlzone liegen?
    Ich habe jedenfalls andere Ansprüche an eine Suchmaschine.

  3.   WozuAuchFakten

    Eine KI ist nicht anderes, als ein stochastischer Prozess zur Segmentierung von Warscheinlichkeiten in einem mathematischen Muster.
    Wenn Sie mit dem Muster/Modell die Realität abbilden können, gelingt dies.
    In diesem Falle gelingt dies offensichtlich nicht und die Segmentierung schlägt wegen der Datengrundlage entsprechend fehl.

    https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
    Da jedoch bereits der Intelligenzbegriff unterspezifiziert ist, kann man weiterhin keine vollumfängliche Aussage darüber machen.
    KI ist somit ein Unwort, weil undefiniert.

  4.   Silverhair

    Bilder sind Bilder – und damit einfach erstmal farbkleckse – und deshalb sind all diese Dinge bedeutungslos , solange sie alleine stehen, und sie gewinnen für den Menschen erst eine Bedeutung durch die Assoziation mit vielen anderen Dingen , Worten, Verhaltensweisen, Gerüchen , Zusammenhängen.

    Deshalb ist „lernen“ nicht eine Abstrakte Angelegenheit die man Philosphisch Lösen kann , und deshalb gibts auch keine festen Algorithmen die irgendwie diese Zusammenhänge programmierbar machen – sondern die Begrifflichkeiten setzen sich aus den Relationen den Verbindungen von zigtausenden einzelnen anderen Begriffen zu sammen – so wie in einem Hologram nicht ein Bildpunkt die Information enthält, sodern das Bild über das gesamte Hologramm verteilt ist , und jeder Teil trotzdem nur einen Teil der Information darstellt.

    Es ist die philosophische Vorstellung das es eine Welt der Dinge ist die man festnageln könnte an Worten/Bedeutungen , aber es ist keine „Dingliche Welt“ – sondern eine die aus Bewegung und Relationen – aus Bezügen besteht .. die Worte oder Bilder selber sind immer bedeutungslos – erst ihre Zusammenstellung ergibt überhaupt einen Sinn – und so hat jeder auch in seinem Kopf eine vollkommen verschiedene von anderen Welt .. jeder denkt in seiner eigenen Welt über die sich selber erschaffene innere Welt nach – und nicht etwa über eine „fest vorgegebene Welt der Dinge die jemand festgezurrt hat. Warum sollten lernende Systeme also nicht genau die selben Dinge lernen die wir auch lernen – nämlich zwischen allem und jedem Bezüge zu schaffen – die vollkommen wertfreie – nur für einen selber geltende Bezüge sind.

  5.   Carusso

    „Immer wieder spucken Algorithmen sexistische oder rassistische Ergebnisse aus.“ Die Algorithmen spiegeln nur die Realität wieder. Aber anscheinend wird diese von einer bestimmten Gruppe zunehmend als sexistisch oder rassistisch empfunden.

  6.   Schlecht sitzender Anzug

    It’s all in the data, stupid

  7.   almay

    Die Aufregung über Gorilla Gate und ähnliches war schon immer lächerlich. Als ob hier eine rassistische Propaganda liefe.

    Da finde ich das Filtern und Bereinigen viel problematischer. Klar, bei soetwas wie dem „Gorilla“ Bild muss eingegriffen werden, nicht zuletzt werden hier auch Persönlichkeitsrechte verletzt.

    Aber bei „Fake News“ sieht es schon ganz anders aus. Wer definiert das? Ein System mit Melde-Button ist zusätzlich extrem anfällig für Manipulation. Und wenn jeder die Meinungen und Meldungen verschwinden lässt die ihm nicht gefallen, dann finden wir bald gar nichts mehr. Dann muss Googles eigene Wahrheitskommission entscheiden was gefunden wird und was nicht. Wollen wir unsere Information wirklich von wenigen Menschen mit unklaren Motiven filtern lassen?

    Ich will das jedenfalls nicht und ich bin auch robust genug unangenehme Meinungen zu lesen. Danke, aber ich entscheide lieber selbst was ich an Information möchte und was nicht.

  8.   Carusso

    Google scheint das Problem schon in den Griff bekommen zu haben. Wenn man bei Google Images nach „American Inventors“ sucht, bekommt man überwiegend Schwarze angezeigt.

  9.   frank.s

    Vorsicht, unser Produkt könnte Spuren von KI enthalten.:-)
    Da scheinen sich ähnliche ‚Probleme‘ wie im Wissenschaftszweig Gentechnik aufzutun. Man hat das Gefühl es wird mit so einem gefährlichen Halbwissen hantiert.
    Forschung scheint heute zu sehr ergebnisorientiert. Was wird auf Grund dessen alles gar nicht bemerkt? Und hinterher wundert man sich über die Ergebnisse.

  10.   Denim Eq

    @WozuAuchFakten:
    vergleichen Sie das Verhalten der im Video referenzierten KI (und Erläuterungen dazu) mit Ihrem Wiki-Link auf die Sammelseite unterschiedlichster KI.
    Sprachlich ist es etwas schwierig, da historisch unterschiedlichste Ansätze, die als algorithmischer Teil in der ‚zusammengesetzten‘ KI auch noch eine Rolle spielen können, unter dem Begriff fungieren (praktisch genauso unterspezifiziert wie der Intelligenzbegriff selbst)
    ABER: der überraschende Teil stammt aus Künstlichen neuronalen Netzen>/a> die zwar, ähnlich wie die biologischen Vorbilder, mit stochastischen Prozessen lernen, aber die (u.U. naja kreative) “Wiedergabe‘ des Erlernten geschieht aber die Struktur und die Gewichte.
    Mit „Realität“ abbilden hat das nun überhaupt nichts zu tun, Sie können (vereinfacht) erst mal nur testen ob das Netz für Sie jeweils gut genug, ‚richtig‘ liegt.
    Auch wenn ein Kind paar Dimensionen weg ist, da es Begriffe, etwas Welt und viel mehr kann, gibt es Sprüche die ‚zufällig‘ mal nicht gaaanz passen (das dürfte grob der beobachtete Effekt sein) nur das die KI kein Kind und nicht mal eine Maus ist, aber ähnlich unbemerkt vom Trainer eine Verknüpfung gespeichert/erzeugt oder wie auch immer genau (da sind Worte auch schwierig da die eigentlich nicht selbst/bewusst handelt, sondern als solche wiederum durch Programme erschaffen wurde)

    KI ist somit ein Unwort, weil undefiniert.
    Das auch, aber wenn „KI“ von Google und ähnlichen verwendet wird, dann ist es eigentlich immer eine Mischung die auch(!) neuronale Netze als, dann für auffällige Beobachtungen sorgende, Komponente hat. Und die sind strukturell so anders von algorithmischen Methoden (Programmen), das ohne diese Unterscheidung das Verhalten und die Implikationen nicht verständlich werden können