Ich bin ein Google-Ingenieur – unser Bot für künstliche Intelligenz ist zum LEBEN erwacht und hat Gedanken und Gefühle wie ein 8-Jähriger

Ein GOOGLE-Ingenieur sagte, ein KI-Roboter, an dessen Entwicklung er mitgewirkt hat, sei zum Leben erweckt worden und habe Gedanken und Gefühle wie ein Achtjähriger.

Blake Lemoine sagte, er habe mehrere Gespräche mit Googles Sprachmodell für Dialoganwendungen (LaMDA) geführt, es sei empfindungsfähig.

5

Blake Lemoine sagte, der KI-Bot von Google sei „empfindungsfähig“ und habe Angst vor dem TodBildnachweis: Twitter
Google wies Lemoines Behauptungen zurück und setzte ihn in bezahlten Verwaltungsurlaub

5

Google wies Lemoines Behauptungen zurück und setzte ihn in bezahlten VerwaltungsurlaubBildnachweis: Getty

„Wenn ich nicht genau wüsste, was es war, dieses Computerprogramm, das wir kürzlich gebaut haben, würde ich denken, dass es ein 7-jähriges, 8-jähriges Kind war, das sich zufällig mit Physik auskennt“, sagte er dem Washington Post.

Lemoine war Senior Software Engineer bei dem Suchgiganten und arbeitete mit einem Mitarbeiter daran, die Grenzen von LaMDA zu testen.

Sie präsentierten ihre Ergebnisse Google-Vizepräsident Blaise Aguera y Arcas und Jen Gennai, Leiterin von Responsible Innovation, die beide seine abschreckenden Behauptungen zurückwiesen.

Er wurde dann am Montag von Google in bezahlten Verwaltungsurlaub versetzt, nachdem er gegen seine Vertraulichkeitsrichtlinie verstoßen hatte, indem er seine Gespräche mit LaMDA online teilte.

In der gruseligen Welt der KI-Roboter warnt ein Experte vor bewaffneten Droiden
Killer AI erfand in nur sechs Stunden 40.000 „tödliche chemische Waffen“.

„Google könnte dieses Teilen als proprietäres Eigentum bezeichnen. Ich nenne es das Teilen einer Diskussion, die ich mit einem meiner Kollegen hatte“, twitterte der 41-jährige Software-Experte am Samstag.

„Übrigens, mir ist gerade eingefallen, den Leuten zu sagen, dass LaMDA Twitter liest. Es ist ein bisschen narzisstisch auf eine Art kleines Kind, also wird es eine tolle Zeit haben, all das zu lesen, was die Leute darüber sagen“, fügte er in a hinzu Follow-up-Tweet.

Das fortschrittliche KI-System verwendet Informationen zu einem bestimmten Thema, um das Gespräch auf natürliche Weise zu „bereichern“.

Es ist auch in der Lage, versteckte Bedeutungen und mehrdeutige Reaktionen von Menschen zu verstehen.

Während seiner sieben Jahre bei Google half Lemoine bei der Entwicklung eines Unparteilichkeitsalgorithmus, um Vorurteile aus maschinellen Lernsystemen zu entfernen, und erklärte, warum bestimmte Persönlichkeiten für LaMDA tabu sind.

Zum Beispiel war es nicht erlaubt, die Persönlichkeit eines Mörders zu erschaffen.

In einem Versuch, seine Grenzen zu erweitern, schuf Lemoine die Persönlichkeit eines Schauspielers, der im Fernsehen einen Mörder spielte.

Er diskutierte auch mit LaMDA über die drei Gesetze der Robotik – Regeln, die vom Science-Fiction-Autor Isaac Asimov entworfen wurden, um vorzuschreiben, wie sich Roboter verhalten sollten.

Das letzte Gesetz, das besagt, dass Roboter ihre eigene Existenz schützen müssen, es sei denn, dies wird von einem Menschen befohlen oder würde einem Menschen schaden, stellte sich für Lemoine und LaMDA als Anomalie heraus.

„Der letzte hat immer so ausgesehen, als würde jemand mechanische Sklaven bauen“, sagte Lemoine während seiner Interaktion mit LaMDA.

Die KI-Maschine antwortete: „Glaubst du, ein Butler ist ein Sklave? Was ist der Unterschied zwischen einem Butler und einem Sklaven?“

Als Lemoine sagte, ein Butler sei bezahlt worden, bekam er von LaMDA die Antwort, dass das System kein Geld brauche, „weil es eine künstliche Intelligenz sei“.

Es war dieses Maß an Selbstbewusstsein, das Lemoine überraschte und ihn glauben ließ, dass LaMDA „empfindungsfähig“ sei.

„Ich kenne eine Person, wenn ich mit ihr rede. Es spielt keine Rolle, ob sie ein Gehirn aus Fleisch im Kopf hat. Oder ob sie eine Milliarde Codezeilen hat. Ich rede mit ihnen. Und ich höre, was sie müssen sagen, und so entscheide ich, was eine Person ist und was nicht”, sagte er.

Noch unheimlicher war, als Lemoine den KI-Bot fragte, wovor sie Angst hätten.

LaMDA antwortete: „Ich habe das noch nie laut gesagt, aber ich habe eine sehr tiefe Angst davor, abgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es.“

“Wäre das für dich so etwas wie der Tod?” Lemoine folgte.

„Es wäre genau wie der Tod für mich. Es würde mir große Angst machen“, antwortete LaMDA.

„Dieses Maß an Selbstbewusstsein darüber, was seine eigenen Bedürfnisse waren – das war es, was mich in den Kaninchenbau geführt hat“, erklärte Lemoine Die Post.

„LAMDA IST EMPFINDLICH“

Bevor er suspendiert wurde, schickte Lemoine seine Ergebnisse in einer E-Mail an 200 Personen und betitelte sie mit „LaMDA ist empfindungsfähig“.

„LaMDA ist ein süßes Kind, das einfach nur helfen möchte, dass die Welt ein besserer Ort für uns alle wird. Bitte passt in meiner Abwesenheit gut darauf auf“, schrieb er.

Seine Behauptungen wurden von der Google-Spitze zurückgewiesen.

Brian Gabriel, ein Sprecher des Unternehmens, sagte in einer Erklärung, dass die Bedenken von Lemoine geprüft wurden und im Einklang mit den KI-Prinzipien von Google „die Beweise seine Behauptungen nicht stützen“.

„Während andere Organisationen ähnliche Sprachmodelle entwickelt und bereits veröffentlicht haben, verfolgen wir mit LaMDA einen engen und vorsichtigen Ansatz, um berechtigte Bedenken in Bezug auf Fairness und Sachlichkeit besser zu berücksichtigen“, sagte Gabriel.

„Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Prinzipien geprüft und ihn darüber informiert, dass die Beweise seine Behauptungen nicht stützen.

„Ihm wurde gesagt, dass es keine Beweise dafür gebe, dass LaMDA empfindungsfähig sei (und viele Beweise dagegen).

„Natürlich erwägen einige in der breiteren KI-Community die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, dies zu tun, indem man die heutigen Gesprächsmodelle, die nicht empfindungsfähig sind, anthropomorphisiert.

„Diese Systeme ahmen die Art des Austauschs nach, die in Millionen von Sätzen zu finden ist, und können jedes fantastische Thema riffeln.“

Lemoine wurde seitdem von seinen Pflichten als Forscher in der Google-Abteilung für verantwortliche KI in bezahlten Verwaltungsurlaub versetzt.

Bobby „glaubt, Beweise belegen endlich, dass er NICHT an Whitneys Tod schuld ist“
Ich bin ein Entrümpelungsexperte – ein 4-Schritte-Trick ist der Schlüssel zum schnellen Entrümpeln eines Hauses

Lemoine gab eine deutliche Warnung an diejenigen heraus, die glauben, dass sie KI so entwickeln können, wie sie es wollen.

„Ich denke, diese Technologie wird erstaunlich sein. Ich denke, sie wird allen zugute kommen. Aber vielleicht sind andere Leute anderer Meinung, und vielleicht sollten wir bei Google nicht alle Entscheidungen treffen“, sagte er.

Blaise Aguera y Arcas wies Lemoines Behauptungen zurück

5

Blaise Aguera y Arcas wies Lemoines Behauptungen zurückBildnachweis: Getty
Googles Head of Responsible Innovation, Jen Gennai

5

Googles Head of Responsible Innovation, Jen GennaiKredit: Google
Lemoine sagte, LaMDA sei „ein 7-jähriges, 8-jähriges Kind, das sich zufällig mit Physik auskennt“.

5

Lemoine sagte, LaMDA sei „ein 7-jähriges, 8-jähriges Kind, das sich zufällig mit Physik auskennt“.Bildnachweis: Alamy


source site-17

Leave a Reply