KI-Experte erkennt neues Phänomen: „Ich mache mir Sorgen“
Trump, Putin, Flüchtlinge: Ob ein Bild Fake ist oder nicht, lässt sich schon jetzt nur schwer erkennen. Doch an der Herkunft und Machart ist noch etwas besorgniserregend.
Der Papst in Balenciaga-Jacke oder Trump in Handschellen: KI-Bilder sehen manchmal schon fast gruselig echt aus. Dabei handelt es sich im Kern um Fake News. Der KI-Bildgenerator Midjoruney, aus dem der Balenciaga-Papst entstand, bietet deshalb seine kostenlose Version nicht mehr an. Die Firma wolle nach eigenen Angaben die Verbreitung solcher Fake-Bilder eindämmen.

„Künstliche Intelligenz macht es Menschen sehr leicht, Quatsch in die Welt zu setzen“
KI-Experte Aljoscha Burchardt weist bei Buzzfeed News DE darauf hin, dass es sich bei Midjourney um ein kapitalistisches Unternehmen handelt, das wie jedes andere auf Profit aus ist. So kann er sich vorstellen, dass das Ende der Gratisversion auch damit zusammenhängt, dass die Nutzer:innen von nun an lieber dafür zahlen sollen.
Ob Marketingstrategie oder nicht: Midjourney hat Recht damit, dass mit dem KI-Bildgenerator jede:r ganz einfach Fake-Bilder erstellen kann. (Mit Geld funktioniert das ja auch weiterhin.) Es handelt sich dabei um ein neues Phänomen: Zwar kursieren online schon vor KI-Modellen Fake-Bilder und -Texte. Nur, war es bisher den Profis mit Photoshopskills überlassen, diese zu erstellen, erklärt Burchardt.
„Künstliche Intelligenz macht es Menschen sehr leicht, Quatsch in die Welt zu setzen“, sagt er. Und nicht nur das: Im Gegensatz zu vielen damaligen Photoshop-Fails kann man bei KI-Bildern nur schwer erkennen, dass sie fake sind.
Falschinformationen werden durch KI-Bilder und -Texte immer mehr zunehmen
Hinter den Fake-Inhalten steckt laut Burchardt nicht immer eine schlechte Absicht: „Die Leute haben oft gar keine kriminelle Energie, sondern wollen sich einen Spaß erlauben.“ Trotzdem wird die Menge an Falschinformationen durch KI-Modelle immer weiter zunehmen, so Burchardt. „Bisher waren alle Bilder und Texte, die wir im Internet gefunden haben, weitestgehend wahr – das wird sich sehr schnell ändern.“ ChatGPT textet zum Beispiel in 80 von 100 Fällen falsche Informationen.
Desinformation kann laut dem Bundesprogramm „Demokratie leben“ dafür verwendet werden, die Demokratie zu schwächen. Das hat auch die Präsidentschaft von Trump gezeigt. Ende März berichtete die Tagesschau, dass der stellvertretende AfD-Fraktionsvorsitzender Norbert Kleinwächter ein KI-generiertes Foto von aggressiv wirkenden jungen Männern auf Instagram postete, um Stimmung gegen Geflüchtete zu machen. Es ist also nicht auszuschließen, dass Menschen KI-Bilder für rassistische Zwecke verwenden.
KI-Experte fordert mehr Medienkompetenz im Umgang mit Künstlicher Intelligenz
„Ich mache mir natürlich Sorgen, was die Bilder anrichten und was mit ihnen passiert“, sagt Burchardt. Sollte man KI-Modelle womöglich verbieten, um Fake News einzudämmen? Nein, meint der Experte. Die Verantwortung liege bei uns, die wir über die Bilder stolpern und auf Social Media teilen: „Es braucht mehr Medienkompetenz im Umgang mit KI.“
Wie diese aussehen kann, erklärt Burchardt an einem einfachen Beispiel: „Ich würde ja auch nicht einen Text automatisch ins Arabische übersetzen und ihn dann verschicken, ohne ihn zu überprüfen.“ Genauso müsse man eben nun auch mit Bildern umgehen. Jede:r muss sich selbst die Frage stellen: Vertraue ich meiner Quelle oder könnte das auch ein KI-Bild-Scherz sein?
Bald könnten KI-Bilder so gekennzeichnet werden, dass man sie als Fake erkennt
Auch, wie wir Bilder kennzeichnen, wird sich nach Prognosen des KI-Experten ändern. „In Zukunft wird es Standards geben, nach denen zum Beispiel Journalist:innen dokumentieren, ob das Bild mit Midjourney (oder einem anderen KI-Bildgenerator) aufgenommen wurde – oder nicht. Wer die Bilder sieht, kann sie dann besser überprüfen.“ Diese Standards könnten auch für Influencer:innen und alle anderen gelten, die Bilder posten.
Wir befinden uns gerade in einer Zeit, in der KI-Bilder etwas Neues und Aufregendes sind und wir uns erst langsam an sie gewöhnen. Momentan gibt es noch vergleichsweise wenig KI-Bilder im Umlauf. Bald könnten nach Angaben von Burchardt KI-Inhalte auf Social Media die Hälfte des Contents ausmachen. Umso alltäglicher solche Bilder für uns werden, so seine These, umso besser können wir einschätzen, ob diese echt sind oder eben nicht.
Burchardt ist es wichtig, KI-Inhalte nicht zu verteufeln. Künstliche Intelligenz bedeute nicht nur Fake News, die eine Gefahr für die Demokratie darstellen können. Im Gegenteil: „KI-Modelle sorgen auch für eine Demokratisierung, weil jede:r Mensch nun enorm viele Inhalte selbst erstellen kann“. Teilweise dienten KI-Bilder einem guten Zweck oder der Aufklärungsarbeit.
Ein Beispiel dafür: Künstler:innen mit KI schaffen dicke, Schwarze Fantasy-Charaktere, die in der Realität viel zu selten vorkommen.