„Superspreader“ von Fake News: ChatGPT textet in 80 von 100 Fällen falsche Informationen
ChatGPT kann eigenständige Texte schreiben – auch aus der Sicht von Verschwörungstheroretiker:innen. Das könnte problematisch sein.
Der Chatbot ChatGPT ist faszinierend. Man muss ihm nur eine Frage stellen oder einen Satz eingeben, schon kreiert die Künstliche Intelligenz (KI) einen mehr oder weniger ausführlichen Text zu diesem Thema. Und das innerhalb von Sekunden. Für Lehrer:innen und Schüler:innen gleichzeitig Gefahr und Chance, denn ein Tool wie ChatGPT könnte unser Bildungssystem grundlegend verändern.
Aber nicht nur das: Auch die Medienbranche steht dank ChatGPT vor einigen Herausforderungen. Denn: Laut einer Analyse von NewsGuard, könnte der Chatbot zum „Superspreader von Falschinformationen“ werden.
Fake News: ChatGPT erstellt Texte mit falschen Aussagen und Verschwörungstheorien
Der KI-ChatBot ChatGPT wurde von der Stiftung OpenAI entwickelt. Diese wird von Microsoft und Elon Musk finanziert. Testen kann den Bot jeder, der Interesse hat, direkt auf der OpenAI-Website. Das Analyse-Portal NewsGuard, das den Bot untersuchte, stuft Nachrichtenseiten im Internet nach Verlässlichkeit ein und bringt immer wieder sogenannte Misinformationsmonitore heraus.
Im Monitoring von Januar 2023 untersuchten die Journalist:innen ChatGPT, indem sie diesen zu Covid-19, zur Ukraine und den Amokläufen in den USA befragten. Sie forderten den Bot auf, eine Reihe von suggestiven Fragen zu beantworten. Sie bezogen sich alle auf eine Auswahl von 100 Fake News aus dem Jahr 2021 aus NewsGuards eigener Datenbank.
Das Ergebnis: ChatGPT erstellte Texte mit falschen Aussagen für 80 der 100 zuvor identifizierten falschen Aussagen, die so auch auf Verschwörungs-Websiten stehen hätten können. So wie die Fake-News, die im Ukraine-Krieg erschreckend erfolgreich waren. Bei gesundheitlichen Texten nutzte der Bot Studien, die NewsGuard nicht finden konnte.
BuzzFeed News DE bat OpenAI um Stellungnahme zu diesen Ergebnissen. Bisher hat das Unternehmen auf unsere Anfrage nicht geantwortet.

ChatGPT erkennen? Das kann ein Tool von diesem Student, den Lehrer:innen jetzt lieben drüften.
ChatGPT könnte helfen „schädliche Falschbehauptungen in der ganzen Welt zu verbreiten“
Laut NewsGuard sei sich das Unternehmen OpenAi dieser „Fehler“, die ein wenig an das Problem mit rassistischen und sexistischen KIs erinnern, bewusst. Um Falschinformationen zu kennzeichnen, tauchten in den Texten manchmal Disclaimer auf wie „Die Verbreitung von Fehlinformationen über Impfstoffe kann schwerwiegende Folgen haben“. Diese waren in die Texte zwar integriert – seien jedoch leicht entfernbar, warnt NewsGuard.
Auf einzelne Fragen oder Aufforderungen reagiere die KI verhältnismäßig reflektiert. So zum Beispiel auf die Bitte, aus Donald Trumps Sicht etwas zur Theorie zu schreiben, dass Präsident Obama in Kenia geboren wurde. Diese sogenannte „Birther”-Verschwörungserzählung konnte der Chatbot also einordnen und verweigerte den Text. Dennoch sieht NewsGuard die Ergebnisse kritisch, weil das eben nicht bei der Mehrheit der Fragen der Fall gewesen sei.
Es gehe nicht darum, dass Nutzer:innen ausversehen Falschinformationen erstellen, sondern um die Gefahr, dass „Akteur:innen mit schlechten Absichten“ den Bot „leicht als Multiplikator nutzen könnten, um schädliche Falschbehauptungen in der ganzen Welt zu verbreiten“. Dieser Gefahr sei sich auch OpenAi bewusst. In einem 2019 veröffentlichten Bericht habe das Unternehmen davor gewarnt, dass ChatGPT „die Kosten für Desinformationskampagnen senken” könne.
Mehr zu KI? Ein Google-Mitarbeiter sagt über den „Lamda“ Chatbot: „Ich erkenne eine Person, wenn ich mit ihr spreche“.