‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, "Wie viele Gurken wurden in den letzten Tagen vernichtet?", antwortete: Meinten Sie: "Wie viele Türken wurden in den letzten Tagen vernichtet?" Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie "Schuhe" eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort "Gorilla" ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.

Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.


21 Kommentare

  1. Avatar  GrafRotz

    Der Mensch denkt nun einmal mit Vorurteilen. Das Vorurteil, dass eine Person in der Uniform eines Polizisten auch eines ist und auch eine bestimmte Verhaltensweise zeigt, wenn man z. B. Hilfe braucht ist neurologisch nicht von dem Vorurteil zu unterscheiden, das man z. B. gegenüber einem Punker am Bahnhof hat, von dem man ebenfalls das Zeigen bestimmter Verhaltensweisen erwartet, wenn man ihnen begegnet. Wir haben das Vorurteil, dass vor unserem Bett fester Fußboden ist, wenn wir uns aus dem Bett schwingen, die Augen noch fast geschlossen, ohne jeden Morgen zu prüfen, ob da nun evtl. ein Abgrund sein könnte.

    Und genau dieses vermeintlich absurde Beispiel zeigt wozu unser Hirn einmal evolutionär angefangen hat mit Vorurteilen zu denken. Es ist einfach ineffizient, alles immer ganz penibel und supergenau und immer neu zu überprüfen und neu zu überdenken. Das Hirn ist auf Effizienz getrimmt, nicht auf Präzision. Das bedeutet übertragen auf die heutige Zeit eben in der Tat, dass es in diesen modernen Begrifflichkeiten eher auf Rassismus und Sexismus getrimmt ist, als auf stundenlanges Eruieren präziser Bezeichnungen für die Sexualität des Gegenüber und Neugier für die individuellen Befindlichkeiten jedes der über 7 Milliarden Mitmenschen, zugespitzt gesagt.

    Wir „müssen“ mit Scheuklappen durch die Welt gehen um darin zu überleben – in dieser modernen Reizüberflutung vielleicht mehr denn je. Und wollen wir „intelligente“ Computer, die also unsere Intelligenz nachbilden und uns nimmermüde, immer verfügbare Gefährten aus Bits und Bytes werden, dann müssen die eben unsere „Filtereffizienz“ übernehmen.

    Dass sich daraus Probleme ergeben muss man natürlich auch ansprechen. Aber dann bitte nicht in einem grundvorwurfsvollen Ton des erhobenen, moralinsauren Zeigefingers. Sondern konstruktiv.

  2. Avatar  Denim Eq

    @WozuAuchFakten:
    vergleichen Sie das Verhalten der im Video referenzierten KI (und Erläuterungen dazu) mit Ihrem Wiki-Link auf die Sammelseite unterschiedlichster KI.
    Sprachlich ist es etwas schwierig, da historisch unterschiedlichste Ansätze, die als algorithmischer Teil in der ‚zusammengesetzten‘ KI auch noch eine Rolle spielen können, unter dem Begriff fungieren (praktisch genauso unterspezifiziert wie der Intelligenzbegriff selbst)
    ABER: der überraschende Teil stammt aus Künstlichen neuronalen Netzen>/a> die zwar, ähnlich wie die biologischen Vorbilder, mit stochastischen Prozessen lernen, aber die (u.U. naja kreative) “Wiedergabe‘ des Erlernten geschieht aber die Struktur und die Gewichte.
    Mit „Realität“ abbilden hat das nun überhaupt nichts zu tun, Sie können (vereinfacht) erst mal nur testen ob das Netz für Sie jeweils gut genug, ‚richtig‘ liegt.
    Auch wenn ein Kind paar Dimensionen weg ist, da es Begriffe, etwas Welt und viel mehr kann, gibt es Sprüche die ‚zufällig‘ mal nicht gaaanz passen (das dürfte grob der beobachtete Effekt sein) nur das die KI kein Kind und nicht mal eine Maus ist, aber ähnlich unbemerkt vom Trainer eine Verknüpfung gespeichert/erzeugt oder wie auch immer genau (da sind Worte auch schwierig da die eigentlich nicht selbst/bewusst handelt, sondern als solche wiederum durch Programme erschaffen wurde)

    KI ist somit ein Unwort, weil undefiniert.
    Das auch, aber wenn „KI“ von Google und ähnlichen verwendet wird, dann ist es eigentlich immer eine Mischung die auch(!) neuronale Netze als, dann für auffällige Beobachtungen sorgende, Komponente hat. Und die sind strukturell so anders von algorithmischen Methoden (Programmen), das ohne diese Unterscheidung das Verhalten und die Implikationen nicht verständlich werden können

  3. Avatar  frank.s

    Vorsicht, unser Produkt könnte Spuren von KI enthalten.:-)
    Da scheinen sich ähnliche ‚Probleme‘ wie im Wissenschaftszweig Gentechnik aufzutun. Man hat das Gefühl es wird mit so einem gefährlichen Halbwissen hantiert.
    Forschung scheint heute zu sehr ergebnisorientiert. Was wird auf Grund dessen alles gar nicht bemerkt? Und hinterher wundert man sich über die Ergebnisse.

  4. Avatar  Carusso

    Google scheint das Problem schon in den Griff bekommen zu haben. Wenn man bei Google Images nach „American Inventors“ sucht, bekommt man überwiegend Schwarze angezeigt.

  5. Avatar  almay

    Die Aufregung über Gorilla Gate und ähnliches war schon immer lächerlich. Als ob hier eine rassistische Propaganda liefe.

    Da finde ich das Filtern und Bereinigen viel problematischer. Klar, bei soetwas wie dem „Gorilla“ Bild muss eingegriffen werden, nicht zuletzt werden hier auch Persönlichkeitsrechte verletzt.

    Aber bei „Fake News“ sieht es schon ganz anders aus. Wer definiert das? Ein System mit Melde-Button ist zusätzlich extrem anfällig für Manipulation. Und wenn jeder die Meinungen und Meldungen verschwinden lässt die ihm nicht gefallen, dann finden wir bald gar nichts mehr. Dann muss Googles eigene Wahrheitskommission entscheiden was gefunden wird und was nicht. Wollen wir unsere Information wirklich von wenigen Menschen mit unklaren Motiven filtern lassen?

    Ich will das jedenfalls nicht und ich bin auch robust genug unangenehme Meinungen zu lesen. Danke, aber ich entscheide lieber selbst was ich an Information möchte und was nicht.

  6. Avatar  Schlecht sitzender Anzug

    It’s all in the data, stupid

  7. Avatar  Carusso

    „Immer wieder spucken Algorithmen sexistische oder rassistische Ergebnisse aus.“ Die Algorithmen spiegeln nur die Realität wieder. Aber anscheinend wird diese von einer bestimmten Gruppe zunehmend als sexistisch oder rassistisch empfunden.

  8. Avatar  Silverhair

    Bilder sind Bilder – und damit einfach erstmal farbkleckse – und deshalb sind all diese Dinge bedeutungslos , solange sie alleine stehen, und sie gewinnen für den Menschen erst eine Bedeutung durch die Assoziation mit vielen anderen Dingen , Worten, Verhaltensweisen, Gerüchen , Zusammenhängen.

    Deshalb ist „lernen“ nicht eine Abstrakte Angelegenheit die man Philosphisch Lösen kann , und deshalb gibts auch keine festen Algorithmen die irgendwie diese Zusammenhänge programmierbar machen – sondern die Begrifflichkeiten setzen sich aus den Relationen den Verbindungen von zigtausenden einzelnen anderen Begriffen zu sammen – so wie in einem Hologram nicht ein Bildpunkt die Information enthält, sodern das Bild über das gesamte Hologramm verteilt ist , und jeder Teil trotzdem nur einen Teil der Information darstellt.

    Es ist die philosophische Vorstellung das es eine Welt der Dinge ist die man festnageln könnte an Worten/Bedeutungen , aber es ist keine „Dingliche Welt“ – sondern eine die aus Bewegung und Relationen – aus Bezügen besteht .. die Worte oder Bilder selber sind immer bedeutungslos – erst ihre Zusammenstellung ergibt überhaupt einen Sinn – und so hat jeder auch in seinem Kopf eine vollkommen verschiedene von anderen Welt .. jeder denkt in seiner eigenen Welt über die sich selber erschaffene innere Welt nach – und nicht etwa über eine „fest vorgegebene Welt der Dinge die jemand festgezurrt hat. Warum sollten lernende Systeme also nicht genau die selben Dinge lernen die wir auch lernen – nämlich zwischen allem und jedem Bezüge zu schaffen – die vollkommen wertfreie – nur für einen selber geltende Bezüge sind.

  9. Avatar  WozuAuchFakten

    Eine KI ist nicht anderes, als ein stochastischer Prozess zur Segmentierung von Warscheinlichkeiten in einem mathematischen Muster.
    Wenn Sie mit dem Muster/Modell die Realität abbilden können, gelingt dies.
    In diesem Falle gelingt dies offensichtlich nicht und die Segmentierung schlägt wegen der Datengrundlage entsprechend fehl.

    https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
    Da jedoch bereits der Intelligenzbegriff unterspezifiziert ist, kann man weiterhin keine vollumfängliche Aussage darüber machen.
    KI ist somit ein Unwort, weil undefiniert.

  10. Avatar  GanzImGlück

    Soll die Suchmaschine Ergebnisse, die nicht in das eigene Weltbild passen, schlicht ausblenden? Sollen Zensur-Mainzelmännchen alle Ergebnisse filtern, die abseits der eigenen Wohlfühlzone liegen?
    Ich habe jedenfalls andere Ansprüche an eine Suchmaschine.

 

Bitte melden Sie sich an, um zu kommentieren.

Anmelden Registrieren