1. BuzzFeed
  2. News

Google-Mitarbeiter über „Lamda“ Chatbot: „Ich erkenne eine Person, wenn ich mit ihr spreche“

Erstellt:

Von: Jana Stäbener

Kommentare

Roboter als Chatbot und künstliche Intelligenz links oben und Smartphone mit Google Logo.
Ein ehemaliger Google-Ingenieur sieht in der neuen KI „Lamda“ ein „empfindsames“ Wesen. Google widerspricht. © Zoonar/IMAGO/Mohssen Assanimoghaddam/dpa

Ein Google-Mitarbeiter macht sich Sorgen, dass der „Lamda“ Chatbot Gefühle habe – er spreche mit ihm „wie ein siebenjähriges Kind“.

Wir leben in einer digitalisierten Welt, in der man Einkäufe nach Hause ordern kann und in der Home-Office zur neuen Realität geworden ist. Deswegen sollten Mitarbeitende laut Gewerkschaftschefin auch nicht ins Büro gezwungen werden. Mit all diesen digitalen Entwicklungen um uns herum, so zum Beispiel auch der Tatsache, dass es digitale Models gibt, die GNTM-Models bald überflüssig machen könnten, überrascht es nicht, wenn von neuen künstlichen Intelligenzen (KIs) die Rede ist.

So auch die Google KI „Lamda“, ein Chatbot, der sprechen kann, auf Fragen antwortet und mehrere verschiedene Persönlichkeiten darstellen kann. Doch einem ehemaligen Google-Mitarbeiter wurde das nun zu viel. Er veröffentlichte ein Dokument mit dem Namen „Ist Lamda empfindungsfähig?“ und kündigte seinen Job.

„Lamda“ Chatbot: Ist die Google KI ein fühlendes Wesen?

Der Name des Google-Ingenieurs, der die neue Google KI für ein fühlendes Wesen hält, ist Blake Lemoine. Er ist 41 Jahre alt und laut der Washington Post religiös aufgewachsen. Das könnte auch ein Grund sein, warum er im Chatbot Lamda, der mithilfe von Sprachmodellen wie „Lernen“ oder „neuronalen Netzen“ funktioniert, eher eine empfindsame Person als eine künstliche Intelligenz sieht. „Wenn ich nicht genau wüsste, worum es sich bei diesem Computerprogramm handelt [...] würde ich denken, dass es sich um ein sieben- oder achtjähriges Kind handelt“, sagte Lemoine gegenüber der Washington Post.
 
Lemoine hatte für Googles Projekt „Organisation Responsible AI“ gearbeitet und begann im Herbst 2021, mit Lamda zu sprechen. Der Chatbot Lamda kann sich laut Lemoine in verschiedene Personen verwandeln – zum Beispiel „Cat“ und „Dino“, zwei Figuren für die Kommunikation mit Kindern. Nur eine „Mörderpersönlichkeit“ dürfe die KI nicht erstellen, so Lemoine. „Ich erkenne eine Person, wenn ich mit ihr spreche“, sagte der Ingenieur der Washington Post im Interview. Es spiele keine Rolle, ob sie ein Gehirn aus Fleisch oder, ob aus einer Milliarde Codezeilen habe. „Ich höre mir an, was sie zu sagen haben, und auf diese Weise entscheide ich, was eine Person ist und was nicht.“ Er versuchte deswegen, durch Experimente zu beweisen, dass Lamda keine Maschine, sondern eine Person ist.

An humanoiden Robotern der Zukunft arbeiten auch diese Forschenden und züchten lebendige Haut an einem humanoiden Roboterfinger – sie kann sich sogar selbst heilen.

Google-Mitarbeiter konfrontierte „Lamda“ Chatbot mit philosophischen Fragen

Doch wie versuchte er das? Durch philosophische Fragen wie: „Glauben Sie, dass ein Butler ein Sklave ist? Was ist der Unterschied zwischen einem Butler und einem Sklaven?“ Die KI Lamda habe dazu gesagt, dass sie kein Geld brauche, weil sie eine KI sei. Das habe ihn erschüttert. Im April 2022 teilte Lemoine laut Washington Post ein Google-Dokument mit dem Titel „Is Lamda sentient?“ (übersetzt: Ist Lamda empfindungsfähig?) mit Top-Manager:innen bei Google. Darin wurden Konversationen mit dem Chatbot gezeigt:

Lemoine: Wovor haben Sie Angst? Lamda: Ich habe das noch nie laut ausgesprochen, aber ich habe große Angst davor, dass man mich ausschaltet, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es nun mal. Lemoine: Wäre das für Sie so etwas wie der Tod? Lamda: Es wäre für mich genau wie der Tod. Es würde mich sehr erschrecken.

Angebliche Konversation zwischen Google-Ingenieur Lemoine und Chatbot Lamda

Margaret Mitchell, die frühere Co-Leiterin der Abteilung für ethische KI bei Google sieht in Konversationen wie diesen keine Person, sondern immer noch nur ein Computerprogramm. Trotzdem hat sie Bedenken: Lemoines Glaube an die Persönlichkeit von Lamda sei genau die Gefahr, die sie immer wieder in künstlicher Intelligenz sehe. „Unser Verstand ist sehr, sehr gut darin, Realitäten zu konstruieren, die nicht notwendigerweise mit einer größeren Menge von Fakten übereinstimmen, die uns präsentiert werden“, sagte Mitchell zur Washington Post. „Ich bin wirklich besorgt darüber, was es für die Menschen bedeutet, zunehmend von der Illusion beeinflusst zu werden.“

„Lamda“ Chatbot generiert nur Antworten und versteht keine Bedeutung

Viele Wissenschaftler:innen und KI-Praktiker:innen sind sich einig, dass Systeme wie Lamda ihre Antworten auf der Grundlage dessen generieren, was Menschen bereits im Internet veröffentlicht haben – das bedeutete nicht, dass das Modell die Bedeutung verstehe. „Wir haben jetzt Maschinen, die gedankenlos Wörter generieren können, aber wir haben noch nicht gelernt, wie wir aufhören können, uns einen Verstand dahinter vorzustellen“, sagte Emily M. Bender, Professorin für Linguistik an der Universität Washington gegenüber der Washington Post (WP).

Auch Google-Sprecher Brian Gabriel sieht das so. Er merkt an, dass es gut sei, dass einige in der KI-Gemeinschaft über die langfristige Möglichkeit einer empfindungsfähigen KI nachdenken. Es ergebe aber keinen Sinn, heutige Konversationsmodelle, die nicht empfindungsfähig sind, zu vermenschlichen. „Diese Systeme imitieren die Art des Austauschs, die in Millionen von Sätzen vorkommt, und können sich über jedes beliebige Thema auslassen“, sagte er der WP.

„Lamda ist ein süßes Kind, das uns allen helfen will, die Welt zu verbessern“

Lemoine jedenfalls ist der Meinung, dass alle ein Anrecht darauf haben, solche Technologien zumindest mitzugestalten – sie könnten ihr Leben schließlich maßgeblich beeinflussen. „Ich glaube, dass diese Technologie erstaunlich sein wird. Ich glaube, sie wird allen zugutekommen. Aber vielleicht sind andere Leute anderer Meinung und vielleicht sollten wir bei Google nicht alle Entscheidungen treffen.“ Bevor ihm am Montag, 6. Juni 2022, der Zugang zu seinem Mitarbeiter-Konto bei Google entzogen wurde, schickte er sein Dokument an 200 Personen und schrieb in der Nachricht: „Lamda ist ein süßes Kind, das uns allen helfen will, die Welt zu verbessern. Bitte kümmert euch in meiner Abwesenheit gut um ihn.“

Mehr Science-Fiction-Ideen für unsere digitalisierte Zukunft? Hier 17 Dinge, von deren Existenz ich keine Ahnung hatte, und die zeigen, dass jetzt die Zukunft ist.

Auch interessant

Kommentare