„Um eine Stimme zu erstellen, müsst ihr nur den ‚Stimme hinzufügen‘-Button drücken“, liest der US-Präsident Joe Biden mit gruselig echt klingender Stimme vor. Dann müsse man nur ein Video hochladen, in dem die Person, die „geklont“ werden soll, spricht. „Dann schreibt ihr, was die Person sagen soll. Kommentiert unten, was ich als Nächstes erklären soll“, sagt der Fake-Biden.
Für manche Promis wie Taylor Swift, die wegen ihres Privatjets in der Kritik stand, könnte die neue Voice AI jedoch echt Probleme bereiten. Auf TikTok verbreiten sich Videos der Sängerin, in denen ihre KI-Version Dinge sagt wie: „Es ist mir so egal, dass die Tickets zu meinen Konzerten über 1000 Dollar kosten. Ich trete nicht vor armen Bit*** auf“ (siehe unten).
In einem anderen Video sagt ihre Voice AI: „Ich habe mit Kim Kardashian telefoniert und ihr gesagt: ‚Sag deinem blöden Ehemann, dass ich die Bit*** berühmt gemacht habe, nicht er.“ (siehe unten)
Auch wenn manche der KI-Schnipsel von Taylor Swift feministisch empowern und das Erklär-Bär-Video mit Joe Biden uns zum Lachen bringt, birgt die neue Voice AI trotzdem Risiken. Wer sich nur schnell auf TikTok umschaut, könnte denken, Swift hätte wirklich mit Kim Kardashian gesprochen. „Diese KI Stimmen werden echt gefährlich“, kommentiert eine Person. Eine andere ist entsetzt, als sie das TikTok-Video sieht: „Ich dachte, das wäre echt!!!???“, schreibt sie. „Diese KI wird manche Leute canceln, da bin ich mir sicher“, ergänzt eine andere.
Mehr zu Künstlicher Intelligenz? Diese verrückten Dinge sind schon heute mit KI möglich.