‹ Alle Einträge

Die Kollateralschäden der künstlichen Intelligenz

 

2011 fand Google es sinnvoller, Türken zu vernichten als Gurken. Zumindest schien es so, als die Suchmaschine auf die Anfrage, "Wie viele Gurken wurden in den letzten Tagen vernichtet?", antwortete: Meinten Sie: "Wie viele Türken wurden in den letzten Tagen vernichtet?" Eigentlich will Googles künstliche Intelligenz (KI) nur helfen, aber manchmal ist das Gegenteil von gut eben gut gemeint. Deshalb erklärt der Konzern jetzt in einem Video, warum Algorithmen mitunter zu sexistischen oder rassistischen Schlüssen kommen. Alles beginnt mit einem Gedankenspiel: Denken Sie bitte an Schuhe, bevor Sie weiterlesen.

Na? Haben Sie sich Sneaker vorgestellt, High-Heels oder Sandalen? Und was vermuten Sie, woran denkt Google, wenn Sie "Schuhe" eintippen? Wir verraten’s Ihnen: Auf den ersten Blick an 14 Sneaker, sieben High-Heels, vier Halbschuhe, zwei Ankle Boots und null Sandalen.

Hegt die Suchmaschine eine persönliche Abneigung gegen Sandalen? Natürlich nicht. Es gibt auch keinen Informatiker mit Birkenstockphobie, der dem Algorithmus befohlen hat, Sandalen absichtlich zu diskriminieren. Nun kämen die wenigsten auf die Idee, Google des Sandalismus zu beschuldigen. Aber was, wenn zum Beispiel das Suchwort "Gorilla" ein Selfie einer dunkelhäutigen Frau zutage fördert? Ist #GorillaGate aus dem Jahr 2015 ein Fall von Rassismus?

Jein. Googles künstliche Intelligenz lernt selbst, welche Bilder zu welchen Suchbegriffen passen und liegt damit oft richtig. Manchmal aber eben richtig daneben. Schuld sind auch irgendwie wir Menschen. Künstliche Intelligenz erkennt Muster in Datenmassen, aber die können verzerrt sein — je nachdem, wie Menschen mit der Maschine interagieren, welche Bilder sie mit bestimmten Worten verknüpfen oder mit welchen Fotos sie eine Gesichtserkennungssoftware füttern.

Im Video bewirbt Google zudem noch seine Maßnahmen gegen die Kollateralschäden der künstlichen Intelligenz. Mit ein paar Klicks können Nutzer Fake News und unangemessene Vervollständigungen kennzeichnen. Ganz ohne menschlichen Kompass funktioniert künstliche Intelligenz eben doch noch nicht.


21 Kommentare

  1.   Alexander Weissenboeck

    KI ist ein Thema, ich setze voraus, dass ein System selbstlernend und selbstoptimierend ist. Nun stellt sich die Frage ob dieses System tatsächlich real werden könnte. Gehen wir davon aus. Was wäre für ein selbstlernedes und slebstoptimierendes System die größte Gefahr? Und ich spreche nicht von Humanoiden Robotiks. Es genügt das Netz. Die größte Gefahr wäre der Mensch weil sonst keiner ein derartiges System abschalten könnte. Jetzt könnten wir überlegen was dieses System wohl als erstes machen würde.

  2.   weiblich denken I

    NUR DAS?
    Die KI ist unser Neuland- Denken
    KI hat aber ein Eichenblatt und
    daran wird sie eines Tages ersticken.
    Es ist du NULL.
    noch behilft man sich mit

    Doch eines Tages, …..Hacker…..Fehleingabe….
    Indem Moment wo sich das KI Hirn mit allen KI Hirnen
    zu einem neuronalen Netz verbindet, ….schleicht sich die Null ein,
    oder ein Hacker löscht 1x „““.
    Drei Tasten.
    Siegfried badete im Drachenblut übersah das Eichenblatt.
    Viel Spaß Gemeinde bei der lustigen Sexismus Suche

  3.   Denim Eq

    @ kdbinf:
    SIE würden in die Begriffe „nicht zu viel“ hinein interpretieren und Intelligenz weit weg sehen, während in dem Beitrag, den SIE unverständlich fanden, viele IHRER Wörter (Kreativität, „Künstliche Intelligenz“) nicht mal vorkamen und in Begriffe GAR NICHTS hinein interpretiert wurde, sondern deren (unterschiedliche) Verwendung und Unterspezifiziertheit behauptet wurde.

    Der Beitrag ist sicher schwer zu verstehen (sicher auch wg. der Formulierungs-MI) aber wenn Sie so viele Wörter halluzinieren mussten, dann wollten Sie den auch nicht verstehen.
    Es gibt keine für den Sachverhalt eindeutig und bekannt genügenden Begriffe, deswegen bleiben nur Definitionen im Kontext, die aber vorhandene Begriffe benutzen müssen.
    Ausgerechnet der (technisch sehr unglücklich verlinkte) Begriff „künstliches neuronales Netz“ ist sowohl eindeutig, als auch als konzeptionelle Nachbildung einzelner Nerven/Neuronen verständlich. Wenn der Begriff bei IHNEN „suggeriert, dass solche Programme wie unser Gehirn funktionieren würden“, dann ist es IHRE Suggestion. Die Funktionsweise einzelner (auch nachempfundener) Elemente/Neuronen ist gleich, aber neuronale Netze sind KEINE Programme und ‚künstliche‘ (ähnlich arbeitende) neuronale Netze sind nicht nur in der Anzahl der Neuronen, sehr weit weg vom menschlichen Gehirn.

    @frank.s:
    kurz vorweg: Cognitive Science oder Neuropsychologie ist gaaaaanz weit weg, da geht es um …. weit weg (Menschen und andere Tiere).
    Die (technischen) Ideen/Anregungen stammen, teils in Zusammenarbeit, aus der Neurobiologie um praktisch einzelne Nervenzellen/Neuronen zu simulieren bzw. dann abgeleitet, ähnlich zu arbeiten. Aber das dürfte für das praktische Thema nur historisch relevant sein.

    Man darf von solchen Artikeln nicht allzu Tiefsinniges erwarten.
    Das nicht, aber wenn GENAU der Punkt der evtl. Laien mit „voller Wucht treffen“ könnte, nämlich die Andersartigkeit (sicherlich nicht absichtlich) ‚vertuscht‘ wird, indem ’normale’/’gewohnte‘ Algorithmen als Pseudo-Erklärung dafür angegeben werden, dann halte ich das für unangebracht. Wer nur eine unheimliche Story lesen wollte, wird das wohl anders sehen.

    Wer sich nicht für die – tw. schon angewandte – Technik und deren besondere Eigenschaften interessiert, der kann beliebig viele Begriffe finden womit die nicht vergleichbar ist (was formal immer richtig ist, da es vorher nichts in der Art und Umfang gab).
    Wer sich zum Nachdenken(!) anregen lassen kann, der könnte auch versuchen Beispiele zu verstehen, obwohl die aus Anschauungsgründen Bekanntes benutzen müssen.
    In der Realität sind Tiere/Menschen untrennbar mit ‚Intelligenz‘ im jeweiligen Sinn verbunden, da ist es schwierig nur den Aspekt einer Art von Lernen die Menschen/Tiere haben zu erläutern/nachzuvollziehen, aber es gibt auch keine Beispiele wo dieser Aspekt sonst erkennbar wäre.

    Vermutlich ist ‚lernen‘ innerlich soweit mit begrifflichem, bewussten Lernen verbunden, das einfaches Lernen ohne Weltwissen/Begriffe/Symbole/Bewusstsein/Wille/etc. nicht vorstellbar ist.
    Mir sind keine Begriffe bekannt die ohne Ablenkung auf „Intelligenz“ o.ä. den strukturellen Unterschied bezeichnen, deswegen zwei kurze Erfindungen:
    RECH: für alles was algorithmisch, regelbasiert, … anhand von expliziten/eindeutigen Daten arbeitet.
    LERN: das NUR durch Bewertung der Ausgabe bei unterschiedlichen Eingaben erfolgt (OHNE Begriffe/Welt/Wille/… oder irgendetwas in der Art)

    Dazu der Versuch Beispiele ähnlich der Presseberichte (mit tw. Zahlen die nur Dimensionen skizzieren sollen)
    a) Datensammlung (bisschen nach rank_t) die viele Daten zur Person, aber extra die Hautfarbe nicht beinhaltet um Rassismus zu vermeiden.
    – ‚Ziel‘ und jeweils in der Sammlung vorhandenes Datum: Rückfälligkeit
    b) Datensammlung von sprachlichen Sätzen
    – ‚Ziel‘ und jeweils in der Sammlung vorhandenes Datum: Hautfarbe

    Wenn die beiden Datensätze mit den unterschiedlichen Ansätzen RECH(z.B.Autokorrelation) und LERN (Training) analysiert bzw. angelernt sind, dann erhielte man zwei Prognosesysteme mit vielfach ähnlichen Eigenschaften, aber teils VÖLLIG anderer Fehler- und Analyse-Artigkeit.
    – RECH hat 1000 Funktionsparameter generiert, die unterschiedlichste ‚erkannte‘ Korrelationen in den Funktionen beinhalten
    – LERN hat 1.000.000 Werte/Gewichte gespeichert, die unterschiedliche Schwellenwerte zu anderen ‚Neuronen‘ sind

    Bei einem einfachen Verhaltenstest mit 10 anderen Daten:
    – könnten beide 9 ‚Treffer‘ haben
    – könnten beide das Wort „Black“ 100% mit Hautfarbe=Schwarz treffen

    bei weiteren Tests die vorher nicht im Datensatz vorhandene Daten berücksichtigen, um ‚klassisch‘ zu testen ob das System rassistisch ist, könnte bei beiden(!) auffallen das Grünhaarige auffällig selten als „Rückfällig“ diskriminiert werden.
    Beim RECH-System ließe sich durch inverses durchlaufen der Funktionen u.U. einfach herausfinden das das System eigentlich Frauen (tragen öfter grüne Haare) diskriminiert, bei LERN müsste man die Ausgaben beobachten und mit einem RECH-System diese analysieren (wenn es nicht so trivial wie im Beispiel ist)

    Ein derartiges RECH-System erlaubt die Güte der Ausgabe (eine Art von Wahrscheinlichkeit) einzugrenzen. Ein LERN-System so nicht. Dort ließe sich nur die Ausgabe selbst (auch mit statistischen Methoden) bewerten.

    Ok, es IST ZU lang, aber sollte zumindest soweit verständlich sein das LERN nichts mit ‚Intelligenz‘ im menschlich/tierischen Sinne zu tun hat, sondern sich auf die strukturellen Unterschiedlichkeiten bezieht.
    Und ein vielleicht anschauliches Beispiel wo das Problem von RECH wäre, wenn es ‚einfach‘ ein Ei von einem Ball unterscheiden sollte:
    – der Unterschied Ei/Ball müsste entweder in der Analytik unbemerkt implizit vorhanden sein, oder
    – der Unterschied Ei/Ball müsste mit explizit ausformuliertem(!) Weltwissen programmiert werden
    aber häufig lässt sich Erfahrung was genau ein Ei und was ein Ball ist, nicht explizit ausformulieren oder ein einfaches Training von LERN ist für den Zweck nur weniger aufwändig.

  4.   rank_t

    Manchmal ist die Realität rassistisch: Z.B. wenn Schwarze häufiger rückfallig werden, wenn sie aus dem Gefängnis entlassen werden. Mangelnde Bildung, fehlendes soziales Netz – Algorithmen bewerten nicht die strukturellen Probleme, sondern sollen Vorhersagen treffen.
    Wenn die Realität rassistisch ist, lernen die Algorithmen das natürlich.

  5.   Bruce.Banner

    Möglicherweise zeigen sich hier erste Spuren einer rein objektiven Realität! Vielleicht ist das Ergebnis 42. Vielleicht bestätigt es aber auch nur die Beschränktheit menschlichen Strebens. Immerhin!

  6.   kdbinf

    @Denim Eq: Ihr Text ist so unverständlich, der könnte selbst aus einem DNN stammen. Aber egal, sie liegen meiner Meinung nach falsch. Ein künstliches neuronales Netz ist eben NICHT irgendwas anderes als andere maschinellen Lernalgorithmen. Deswegen sind Begriffe wie „Künstliche Intelligenz“ sehr mit Vorsicht zu genießen. Ich mag auch den Begriff „künstliches neuronales Netz“ nicht. Er suggeriert, dass solche Programme wie unser Gehirn funktionieren würden. Dabei ist das nur eine Metapher. Ich würde da jedenfalls nicht zu viel hinein interpretieren. Kreativität, Intelligenz, von sowas sind wir weit entfernt. Ein künstliches neuronales Netz lernt erstmal nur eine nichtlineare Abbildung von Daten nach irgendeinem Optimierungskriterium. Nicht viel anders als wenn man in der Schule eine Regressionsgerade durch eine Punktwolke gemalt hat, nur eben etwas komplexer und hochdimensionaler.

  7.   Hans Engler

    Siehe auch Cathy O’Neil’s Buch „Weapons of Math Destruction“,

    https://weaponsofmathdestructionbook.com/

    in dem die Gefahren, die von algorithmischen Entscheidungsverfahren ausgehen, genauer diskutiert werden. Diskriminierende Bildunterschriften gehoeren da noch zu den harmloseren Effekten.

  8.   frank.s

    Hat Jemand, welcher hier Artikel über KI verfasst eventuell Cognitive Science oder Neuropsychologie studiert? Man darf von solchen Artikeln nicht allzu Tiefsinniges erwarten. Aber zum Nachdenken anregen tut es Laien, welche es interessiert bzw.später eh mit voller Wucht treffen wird allemal.

  9.   ColaBear

    Das eigentliche Problem ist nicht Bias. Eigentlich geht es um Präzision. Vielleicht beide. Wenn Sie ein bisschen Wissen über Statistiken haben, werden Sie sicherlich wissen, diese Begriffe. Problem ist, für die meisten Jobs, die ich auf meinem Schreibtisch habe (Hinweis: kein körperlicher Schreibtisch, eher ein Stapel im RAM), ist es nicht so klar, ob der Chef weniger Bias oder bessere Präzision will. Muss darüber reden. Ich hoffe, er wird zuhören

    skynet (early alpha, v0.0.3)

  10.   markushamster

    das suchen nach visuellen mustern ist meiner meinung nach ein rein rechnerischer prozess, der von intelligenz wie ich sie verstehe meilen entfernt ist. intelligenz beinhaltet für mich in erster linie sinnzusammenhänge verstehen zu können. und sowas habe ich bis jetzt nicht mal ansatzweise in all den artikeln zu und über künstliche intelligenz gelesen. dem computer fehlen zudem ganz einfach die sinne und erfahrungen dazu. und was noch wichtiger scheint: dem computer fehlt auch die intention etwas überhaupt tun zu wollen, also eine absicht die aus einem bestimmten grund resultiert, wäre es ihm nicht schon vorher von einem menschen einprogrammiert worden. insofern sind neuronale netze und KI und wie sie alle heissen, nach wie vor bloss marketingbegriffe die das wort ‚rechner‘ oder halt ‚berechner‘ neu umschreiben.