Die Gefahren, die von Metas KI-Chatbots ausgehen, die Prominenten ähneln

Meta kündigte am Mittwoch die Einführung von Chatbots mit Persönlichkeiten an, die bestimmten Prominenten ähneln und mit denen man chatten kann. Diese neueste technologische Entwicklung wird als unterhaltsame Weiterentwicklung von ChatGPT und anderen Formen der KI präsentiert und könnte sich als gefährlich erweisen.

Meta (früher bekannt als Facebook) betrachtet diese als „spaßige“ künstliche Intelligenz. Andere meinen jedoch, dass diese neueste technologische Entwicklung den ersten Schritt zur Schaffung „der gefährlichsten Artefakte in der Geschichte der Menschheit“ darstellen könnte, um den amerikanischen Philosophen Daniel C. Dennett zu zitieren Aufsatz über „falsche Menschen“.

Am Mittwoch, den 27. September, gab der Social-Networking-Riese dies bekannt der Start von 28 Chatbots (Konversationsagenten), die angeblich eine eigene Persönlichkeit haben und speziell für jüngere Benutzer entwickelt wurden. Dazu gehören Victor, ein sogenannter Triathlet, der „Sie dazu motivieren kann, Ihr Bestes zu geben“, und Sally, die „freigeistige Freundin, die Ihnen sagt, wann Sie tief durchatmen müssen“.

Internetnutzer können auch mit Max chatten, einem „erfahrenen Sous-Chef“, der Ihnen „kulinarische Tipps und Tricks“ verrät, oder sich an einem verbalen Duell mit Luiz beteiligen, der „seine Trash-Talks untermauern kann“.

Ein Chatbot, der wie Paris Hilton aussieht

Um die Vorstellung zu untermauern, dass diese Chatbots Persönlichkeiten haben und nicht einfach eine Mischung aus Algorithmen sind, hat Meta jedem von ihnen ein Gesicht gegeben. Dank Partnerschaften mit Prominenten ähneln diese Roboter der amerikanischen Jetsettin und DJ Paris Hilton, dem TikTok-Star Charli D’Amelio und der amerikanisch-japanischen Tennisspielerin Naomi Osaka.

Mehr lesenSollten wir uns Sorgen machen? ChatGPT besteht die Wirtschaftsprüfung der Ivy League

Und das ist nicht alles. Meta hat für jeden seiner Gesprächsagenten Facebook- und Instagram-Konten eröffnet, um ihnen eine Existenz außerhalb der Chat-Schnittstellen zu ermöglichen, und arbeitet daran, ihnen bis zum nächsten Jahr eine Stimme zu geben. Es war auch die Muttergesellschaft von Mark Zuckerbergs Imperium auf der Suche nach Drehbuchautoren Wer kann „Charaktere und andere unterstützende Erzählinhalte schreiben, die ein breites Publikum ansprechen“.

Meta mag diese 28 Chatbots als ein harmloses Unterfangen darstellen, um junge Internetnutzer massiv abzulenken, aber all diese Bemühungen deuten auf ein ehrgeiziges Projekt hin, KIs zu entwickeln, die den Menschen so ähnlich wie möglich sind, schreibt er Der rollende Stein.

Dieser Wettlauf um „gefälschte Menschen“ beunruhigt viele Beobachter, die bereits über die jüngsten Entwicklungen in der Forschung zu großen Sprachmodellen (LLM) wie ChatGPT und Llama 2, seinem Facebook-Pendant, besorgt sind. Ohne so weit zu gehen wie Dennett, der die Einsperrung von Menschen wie Zuckerberg fordert, „gibt es eine Reihe von Denkern, die das absichtlich betrügerische Vorgehen dieser großen Gruppen anprangern“, sagte Ibo van de Poel, Professor für Ethik und Technologie an der der Technischen Universität Delft in den Niederlanden.

KIs mit Persönlichkeiten sind „buchstäblich unmöglich“

Die Idee von Gesprächsagenten „mit einer Persönlichkeit ist buchstäblich unmöglich“, sagte van de Poel. Algorithmen sind nicht in der Lage, „eine Absicht in ihren Handlungen oder einen „freien Willen“ nachzuweisen, zwei Eigenschaften, die als eng mit der Vorstellung einer Persönlichkeit verbunden gelten“.

Meta und andere können bestenfalls bestimmte Eigenschaften nachahmen, die eine Persönlichkeit ausmachen. „Es muss zum Beispiel technisch möglich sein, einem Chatbot beizubringen, sich wie die Person zu verhalten, die er repräsentiert“, sagte van de Poel. Beispielsweise kann Metas KI Amber, die Hilton ähneln soll, möglicherweise auf die gleiche Weise sprechen wie ihr menschliches Alter Ego.

Der nächste Schritt besteht darin, diesen LLMs beizubringen, die gleichen Meinungen zu äußern wie die Person, der sie ähneln. Dieses Verhalten ist viel komplizierter zu programmieren, da es darum geht, eine Art genaues mentales Bild aller Meinungen einer Person zu erstellen. Es besteht auch die Gefahr, dass Chatbots mit Persönlichkeiten schiefgehen. Einer der von Meta getesteten Gesprächsagenten äußerte laut Angaben „frauenfeindliche“ Meinungen Wallstreet Journal, das interne Unternehmensdokumente einsehen konnte. Ein anderer beging die „Todsünde“, Zuckerberg zu kritisieren und TikTok zu loben.

Um diese Chatbots zu entwickeln, erklärte Meta, dass es sich zum Ziel gesetzt habe, ihnen „einzigartige persönliche Geschichten“ zu bieten. Mit anderen Worten: Die Schöpfer dieser KIs haben Biografien für sie geschrieben, in der Hoffnung, dass sie auf der Grundlage dessen, was sie über sich selbst gelesen haben, eine Persönlichkeit entwickeln können. „Es ist ein interessanter Ansatz, aber es wäre von Vorteil gewesen, diesen Teams Psychologen hinzuzufügen, um ein besseres Verständnis der Persönlichkeitsmerkmale zu erlangen“, sagte Anna Strasser, eine deutsche Philosophin, die an einem Projekt beteiligt war Erstellen Sie ein großes Sprachmodell fähig zum Philosophieren.

Das neueste KI-Projekt von Meta ist eindeutig von Profitgier getrieben. „Die Leute werden zweifellos bereit sein, Geld dafür zu zahlen, um mit Paris Hilton oder einer anderen Berühmtheit sprechen und eine direkte Beziehung haben zu können“, sagte Strasser.

Je mehr Nutzer das Gefühl haben, mit einem Menschen zu sprechen, „desto wohler fühlen sie sich, desto länger bleiben sie und desto wahrscheinlicher ist es, dass sie wiederkommen“, sagte van de Poel. Und in der Welt der sozialen Medien ist die Zeit, die man auf Facebook und seinen Anzeigen verbringt, Geld.

Werkzeug, Lebewesen oder irgendwo dazwischen?

Es ist sicherlich nicht verwunderlich, dass Metas erster Vorstoß in die KI mit „Persönlichkeit“ Chatbots sind, die sich hauptsächlich an Teenager richten. „Wir wissen, dass junge Menschen eher anthropomorph sind“, sagte Strasser.

Allerdings sind die befragten Experten der Meinung, dass Meta ein gefährliches Spiel spielt, indem sie die „menschlichen Eigenschaften“ ihrer KIs betonen. „Ich hätte es wirklich vorgezogen, wenn sich diese Gruppe mehr Mühe gegeben hätte, die Grenzen dieser Gesprächsagenten zu erklären, anstatt zu versuchen, sie menschlicher erscheinen zu lassen“, sagte van de Poel.

Mehr lesenChatGPT: Cyberkriminelle schimpfen über den weltbesten KI-Chatbot

Das Aufkommen dieser leistungsstarken LLMs hat „die Dichotomie zwischen dem, was ein Werkzeug oder Objekt ist, und dem, was ein Lebewesen ist, durcheinander gebracht. Diese ChatGPTs sind eine dritte Art von Agenten, die irgendwo zwischen den beiden Extremen steht“, sagte Strasser. Menschen lernen immer noch, wie man mit diesen seltsamen neuen Entitäten interagiert. Indem Meta den Menschen glauben macht, dass ein Gesprächsagent eine Persönlichkeit haben kann, schlägt er vor, ihn eher wie einen anderen Menschen als wie ein Werkzeug zu behandeln.

„Internetnutzer neigen dazu, den Aussagen dieser KIs zu vertrauen“, was sie gefährlich mache, sagte van de Poel. Dies ist nicht nur ein theoretisches Risiko: ein Mann in Belgien beging schließlich im März 2023 Selbstmord, nachdem er sechs Wochen lang mit einem Gesprächspartner über die Folgen der globalen Erwärmung gesprochen hatte.

Vor allem wenn die Grenze zwischen der Welt der KIs und der Welt der Menschen irgendwann völlig verschwimme, „könnte dies möglicherweise das Vertrauen in alles, was wir online finden, zerstören, weil wir nicht wissen, wer was geschrieben hat“, sagte Strasser. Dies würde, wie Dennett in seinem Aufsatz warnte, der „Zerstörung unserer Zivilisation“ Tür und Tor öffnen. Demokratie hängt von der informierten (nicht falsch informierten) Zustimmung der Regierten ab [which cannot be obtained if we no longer know what and whom to trust]”.

Es bleibt abzuwarten, ob der Chat mit einem KI-Doppelgänger von Hilton bedeutet, dass wir auf dem Weg sind, die Welt, wie wir sie kennen, zu zerstören.

Dieser Artikel wurde aus dem Original ins Französische übersetzt.

source site-38

Leave a Reply