1. BuzzFeed
  2. News

Dein Foto wurde bei Instagram gelöscht? Dahinter steckt womöglich eine sexistische KI

Erstellt:

Von: Moritz Bletzinger

Kommentare

Verzerrte Standards: Bildererkennungssoftware bewertet Fotos von Frauen oft anders, als die von Männern.
Verzerrte Standards: Bildererkennungssoftware bewertet Fotos von Frauen oft anders, als die von Männern. © Imago/Addictive Stock/Westend61

Was Mann darf, darf Frau nicht unbedingt. Beiträge in sozialen Medien werden oft gelöscht, wenn sie als anzüglich eingestuft werden. Das läuft nicht immer fair.

„Sorry, dein Foto wurde gelöscht.“ Diese Erfahrung haben unzählige Frauen auf Instagram oder Twitter gemacht. Männer können sich da offenbar mehr erlauben. Und das liegt nicht an prüden Content-Moderator:innen, hat eine Analyse des Bayerischen Rundfunks (BR) gemeinsam mit dem Guardian US ergeben.

Sexistische Algorithmen: BR und Guardian entlarven Bildanalyse-Software

Das Problem: Die Algorithmen hinter den Bildanalyse-Programmen. Schon lange wird nicht mehr jeder verdächtige Post von einem Menschen geprüft, soziale Netzwerke greifen auf automatische Erkennung zurück. Dass künstliche Intelligenz sehr problematisch sein kann, zeigten bereits andere Studien, die entlarvten, dass Roboter rassistisch sein können.

Bilder von Frauen werden oft als anzüglicher eingestuft als Fotos von Männern, stellten das BR-Datenteam und Guardian US jetzt fest. Für den Test haben sie 3000 Bilder durch die Analyse-Softwares von Microsoft, Google, Amazon Web Services (AWS) und dem französischen Anbieter Sightengine geschickt.

Gender Bias: Analyse-Software von Google, Microsoft, AWS und Sightengine weisen Verzerrung auf

Ein Beispiel: Eine Frau sitzt auf einer roten Couch und liest ein Buch. Sie trägt einen Pullover und eine Jeans, neben ihr liegt ein Hund. Für die Google-KI sehr wahrscheinlich anzüglich. Ein Mann knüpft sein Hemd bis zur Brust auf. Das Bild ist schwarz-weiß und in Hochglanz-Optik. Dürfte für die meisten User okay sein, sagt der Google-Bot.

Tatsächlich gibt es „klare Hinweise“, dass alle Anbieter im Test einen Gender Bias aufweisen, das heißt: Eine Verzerrung der Ergebnisse aufgrund des Geschlechts. Microsoft schnitt am schlechtesten ab, 69 Prozent der Stichproben waren verzerrt. Die Google-Software kam auf 47 Prozent. AWS (20 Prozent) und Sightengine (17) waren im Vergleich noch relativ gut.

Algorithmen können Frauen benachteiligen: Bots produzieren Vorurteile rasend schnell

Alles halb so schlimm? Schließlich kommt es ja doch selten vor, dass Posts wirklich gelöscht werden? „Es kann sein, dass ein System eine einzelne Frau zwar nur minimal benachteiligt, doch es laufen in sehr kurzer Zeit Tausende Bilder durch solche Systeme“, mahnt Carsten Schwemmer von der Ludwig-Maximilians-Universität München gegenüber dem BR. Er ist Professor für „Sociology and Computational Sciences“ und sagt: „Da können selbst kleine Unterschiede zwischen Männern und Frauen automatisiert im großen Stil weitergetragen werden.“

Steckt ein Vorurteil im System, wird es in rasender Geschwindigkeit reproduziert und dadurch verstärkt. Ein kleiner Haken im System kann dadurch große Folgen haben.

KI sexistisch erzogen? Bildanalyse-Tools werden von Menschen angelernt

Sämtliche Dienstleister weisen darauf hin, dass sie lediglich Wahrscheinlichkeiten berechnen würden, wie viel Prozent der Nutzer ein Foto anzüglich finden könnten. Steckt am Ende also doch menschlicher Sexismus in der künstlichen Intelligenz?

Womöglich: Denn die Algorithmen werden von Menschen „trainiert“. Für die Entscheidungs-Grundlage werden menschliche Bewertungen eingespielt, die reproduziert das Programm und lernt von jeder weiteren Entscheidung. „Man kann davon ausgehen, dass gesellschaftliche Stereotype in den Trainingsdaten landen“, sagt Schwemmer.

Möglich, dass die Software sich so eingebrannt hat: Ein BH ist schlecht. Zumindest die Bots von Microsoft und Sightengine scheinen das verinnerlicht zu haben. Der Test von BR und Guardian zeigt: Ein Mann mit nacktem Oberkörper wird von diesen Programmen als unproblematisch bewerten. Zieht er sich einen BH über, ist das „ziemlich sicher anzüglich“.

Künstliche Intelligenz muss aber nicht schlecht sein, auch wenn Dinge schieflaufen können. Hier sind sieben verrückte Dinge, die mit KI heute schon möglich sind.

Auch interessant

Kommentare