1. BuzzFeed
  2. News

Studierende entwerfen Tarnpullover, der KI-Gesichtserkennung austrickst

Erstellt:

Von: Robert Wagner

Kommentare

Dieser Pullover sieht nicht wirklich toll aus, kann dafür aber Gesichtserkennungs-KI täuschen. Fast wie der Tarnumhang bei Harry Potter.

Studierende der Universität Maryland im gleichnamigen US-Bundesstaat haben im Rahmen ihrer Forschung einen Pullover entworfen, der durch sein Design die KI (Künstliche Intelligenz) einer Gesichtserkennung täuscht und so verhindert, dass diese effektiv arbeitet und Gesichter zuordnen kann. Das berichtet das Computer-Magazin T3N.

Der Pullover ist auf ein YOLO-basiertes Bildverarbeitungssystem zugeschnitten [Anm. der Red.: hat nichts mit „You only live once“ zu tun], dessen Ziel darin besteht, Menschen beziehungsweise deren Gesichter in einem beliebigen Bild zu finden. Die KI so eines Systems legt dazu ein zufälliges Muster (pattern) über das Bild, sobald es ein Gesicht erkennt, und wertet die entstehenden Daten aus.

Das gewöhnungsbedürftige Design des Pullovers verhindert die effektive Gesichtserkennung durch die KI.
Das gewöhnungsbedürfte Design des Pullovers verhindert die effektive Gesichtserkennung durch die KI. © University of Maryland

Gesichtserkennungs-KI durch Pullover-Muster gezielt in die Irre geführt

Der Pullover knüpft hier an und verwirrt die KI der Gesichtserkennung mit einem „gegnerischen Muster“ (adversarial pattern), sodass sie immer wieder neu ansetzen muss. Sie läuft damit in eine Endlosschleife, was die Gesichtserkennung somit letztlich verhindert. Das aufgedruckte Design macht den Pullover damit zwar nicht zu einem Highlight in modischer Hinsicht. Dafür aber zu einem echten „Tarnumhang“ (invisibility cloak), wie bei Harry Potter. Über den postet die Deutsche Bahn übrigens einen Tweet, der echt in die Hose ging.

Der „Tarnumhang“ ist dabei nur ein Nebenprodukt der universitären Forschung. Seine Erfinder:innen wollten eigentlich bestehende Systeme für maschinelles Lernen auf Schwachstellen untersuchen. Details zu dieser Forschung findest du auf den Seiten der Universität Maryland.

Manche Künstliche Intelligenzen wie die Gesichtserkennung lassen sich also austricksen. Andere haben offenbar menschliche Schwächen. Manche Roboter können sogar rassistisch und sexistisch sein.

Auch interessant

Kommentare