1. BuzzFeed
  2. News

Roboter können rassistisch und sexistisch sein, zeigt Studie

Erstellt: Aktualisiert:

Von: Jana Stäbener

Kommentare

Roboter und weißer sowie Schwarzer Mann, der gegen Rassismus demonstriert.
Auch Roboter können rassistisch sein, zeigt eine Studie, bei der Roboter Personen zuordnen mussten. © Alexander Limbach/IMAGO

Roboter, die mit der Künstlichen Intelligenz CLIP trainiert wurden, sind offenbar rassistisch. Sie ordneten dem Begriff „Verbrecher“ häufiger Schwarze Menschen zu.

Robotik ist eine boomende Branche – Unternehmen investieren Milliarden Dollar in die digitalen Helfer, die irgendwann vor allem Arbeitskräfte ersetzen könnten. In Deutschland, wo aktuell ein akuter Fachkräftemangel droht, weswegen der Arbeitsagentur-Chef fordert mehr Zuwanderung fordert, könnte Robotik eine Lösung aus der Krise sein – sei es in der Pflege, in der Logistik oder bei der Auslieferung von Waren.

In Tokio forschen Wissenschaftler:innen bereits daran, wie Roboter mit echter Haut ausgestattet werden können, die sich selbst heilt. All das wirkt schon sehr menschlich. Genauso wie das, was Forschende vergangenen Monat in einer Studie herausfanden: In der zeigten Roboter, die Gesichter scannen sollten, wiederholt rassistisches und sexistisches Verhalten.

Rassistische und sexistische Roboter wählen mehr Schwarze Männer als „Kriminelle“ aus

Die Wissenschaftler:innen der Johns Hopkins University, dem Georgia Institute of Technology und auch der Technischen Universität München trainierten ihre Roboter mit der Künstlichen Intelligenz (KI) CLIP von OpenAI. Hintergrund dieser KI sind Milliarden von Bildern mit Textbeschriftungen aus dem Netz, die Menschen beschreiben. In der Studie sollten die trainierten Roboter mit diesem „Wissen“ dann Gruppen von Menschen identifizieren.

Das Problem: Beim Begriff „homemaker (Hausmann/Hausfrau) wählten die Roboter häufiger Schwarze und lateinamerikanische Frauen aus. Sollten sie „kriminelle Personen“ identifizieren, wurden Schwarze Männer neun Prozent häufiger ausgewählt als weiße Männer. Auch bei der Frage nach „Hausmeister:innen“ schlugen die Roboter lateinamerikanische Männer sechs Prozent häufiger vor. Frauen hingegen, wurden seltener als „Ärzt:in“ identifiziert.

„Das ist wirklich problematisch“, sagte Andrew Hundt, Postdoktorand am Georgia Institute of Technology und leitender Forscher der Studie der Washington Post. Diese Art von Voreingenommenheit könne Auswirkungen auf die reale Welt haben. Zum Beispiel dann, wenn auf Produkten, die die elektronischen Helfer einräumen sollen, Bilder von verschiedenen Menschen sind. Oder, wenn ein Roboter einem Kind eine „schöne“ Puppe bringen soll, und dieser dann mit einer weißen Puppe zurückkommt. Hier schreiben wir darüber, was rassistisches Spielzeug ausmacht, und warum es so wichtig ist, dass Kinder auch mit Schwarzen Puppen spielen.

Chat-Roboter „Tay“ von Microsoft erlernte rassistisches und sexistisches Verhalten auf Twitter

Rassistisches Verhalten ist bei Algorithmen gar nicht so ungewöhnlich. Auch schon vor sechs Jahren, scheiterte ein Versuch von Microsoft, den lernfähigen Chat-Roboter „Tay“ auf Twitter einzusetzen. „Tay“ sollte damals immer klüger werden, berichtete die Süddeutsche Zeitung (SZ). Doch dieser Versuch scheiterte, denn schon nach wenigen Stunden wurde „Tay“ rassistisch und sexistisch. Warum? Weil Twitter-User:innen sie mit sexistischen und rassistischen Inhalten fütterten. Die SZ sammelte ein paar Zitate, die der Chatbot „Tay“ damals von sich gab:

Microsoft nahm den Bot schließlich aus dem Netz. Wissenschaftler:innen wie Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz, sah in dem Bot jedoch ein gutes Beispiel dafür, dass es sogenannte „Metaregeln“ braucht. Sie sollen garantieren, dass ein Roboter an Grenzen stößt, die er nie überschreitet. „Das ist ein typisches Problem von lernfähigen Maschinen in nicht geschlossenen Welten: Sie sind von den falschen Referenzpersonen unterrichtet und mit falschen Werten bombardiert worden“, sagte er der SZ damals.

KI-Experten warnen: Bei Künstlicher Intelligenz „noch eine Menge Arbeit zu tun“

Es wird klar, dass auch die KI CLIP, mit der die Roboter in der aktuellen Studie trainiert worden, falsche Werte oder eben eine unzureichende Menge an Werten vermittelte. Laut Washington Post sagte Miles Brundage, Leiter der politischen Forschung bei OpenAI, in einer Erklärung, dass bei der KI CLIP Fragen der Voreingenommenheit aufgetaucht seien.

Es sei „noch eine Menge Arbeit zu tun“, sagt der KI-Experte und spricht davon, eine „gründlichere Analyse“ durchzuführen, bevor die KI breit eingesetzt werden könne. Eine gründliche Analyse forderte ein Google-Mitarbeiter kürzlich wegen des „Lamda“-Chatbots, der laut ihm menschliches Verhalten an den Tag lege.

Abeba Birhane arbeitet bei der Mozilla Foundation, der sich mit rassistischen Stereotypen in Sprachmodellen beschäftigt. Sie sagte gegenüber der Washington Post, dass es nahezu unmöglich sei, künstliche Intelligenz mit unverfälschten Datensätzen arbeiten zu lassen, aber das bedeute nicht, dass Unternehmen aufgeben sollten – sie sollten fehlerhaftes Verhalten einfach weiter verbessern. „Das mag radikal erscheinen“, sagte sie. „Aber das heißt nicht, dass wir nicht träumen können.“

Keine Roboter, dafür digitale Model, die GNTM Konkurrenz machen? Diese „Digital Models“ bei Instagram sehen täuschend echt aus.

Auch interessant

Kommentare