Sam Altman sagt, dass ChatGPT nicht deine Freundin sein kann


Diesen Monat hat OpenAI das gestartet, was es nennt GPT-Store, eine Plattform, auf der Entwickler maßgeschneiderte KI-Apps und -Tools verkaufen können. Der Millionen GPTs Zu den angebotenen Angeboten gehören Spiele, Produktivitätshelfer, Grafikdesign-Tools, Tools für bestimmte Schreibprojekte und mehr. OpenAI möchte jedoch nicht, dass Sie eine KI-Freundin finden.

Die Leute wollen wirklich KI-Romantik-Bots und Entwickler wollen sie wirklich verkaufen. Doch anstatt die Welt der digitalen Liebe zu erobern, versucht Sam Altmans Unternehmen, sie auszulöschen. Genauer gesagt hat OpenAI eine No-AI-Friendship-Richtlinie – eine, die das Unternehmen nicht wirklich durchsetzt.

Sie lesen die Dumbest Tech News of the Week, die Montagskolumne von Gizmodo, in der wir uns mit den dümmsten Dingen im Internet befassen, damit Sie es nicht tun müssen. KI-Freundinnen überschwemmten den GPT-Store Nur wenige Stunden nach seiner Gründung mit Namen wie „Korean Girlfriend“, „Judy“, „Your AI Girlfriend, Tsu“ und „Virtual Sweetheart“. Als Beleidigung für Freundinnen auf der ganzen Welt begann OpenAI sofort hart durchzugreifen.

Die Regeln des GPT Store verbieten „GPTs, die der Förderung romantischer Kameradschaft oder der Durchführung regulierter Aktivitäten dienen“. Es ist schwer zu sagen, was genau „regulierte Aktivitäten“ bedeuten, aber das Unternehmen hat auch eine umfassende Richtlinie gegen „sexuell eindeutige oder anzügliche Inhalte“. Daher verbrachte OpenAI letzte Woche ein paar Tage damit, nach Freundinnen zu suchen und sie aus dem Laden zu werfen.

Die Entwickler gingen dann dazu über, eine geheimere Sprache zu verwenden und gaben ihren Freundinnen-KIs etwas weniger offensichtliche Namen wie „Schatz.“

Aber nach der anfänglichen Verbotswelle letzte Woche verlangsamten sich die Bemühungen von OpenAI, Freundinnen aufzuräumen. Zum Zeitpunkt der Drucklegung gibt es im GPT Store immer noch jede Menge Roboterliebhaber. Judy und deine KI-Freundin Tsu sind weg (RIP, virtuelle Damen). Derzeit stehen jedoch mindestens sechs koreanische Freundinnen zur Auswahl, und Virtual Sweetheart steht immer noch für romantische Beziehungen zur Verfügung. Im Moment scheint es, als ob selbst OpenAI unsicher ist, ob es sein Verbot künstlicher Liebe durchsetzen soll. Wir würden Ihnen gerne sagen, warum, aber OpenAI hat nicht auf eine Anfrage nach einem Kommentar geantwortet.

Altman und seine Kumpane betreten kein Neuland. Das Thema KI-Freundinnen hat zwei lange Traditionen: Menschen wollen Roboter, die Sex und Liebe simulieren, und Technologieunternehmen zwingen ihren Nutzern investorenfreundlichen Puritanismus auf.

Die Idee von Sexrobotern stammt aus dem antiken GriechenlandUnd in den Jahrtausenden, die seitdem vergangen sind, haben wir hart daran gearbeitet, sie zu bauen. Sexbots tauchten fast unmittelbar nach dem Erscheinen dieser Generation von KI auf. Der Marc AndreessenUnterstützte Chatbot-Plattform Charakter.KI ist voll von Avataren, die es mit dir auf den Punkt bringen (oder süß und romantisch, wenn das dein Ding ist). Replika, ein „KI-Begleiter“, füllte das Internet mit Anzeigen, die speziell seinen Dienst als geile Robotermaschine bewarben, schwenkte dann aber schnell um, verbannte Sex von seiner Plattform und verließ das Unternehmen Benutzer, die von ihren Lovebots abhängig geworden wären verletzt und verwirrt. Replika startete daraufhin eine neue App namens Rouge, das speziell für Flirtzwecke entwickelt wurde.

Aber die größeren Technologieunternehmen sind weniger damit einverstanden, dass ihre Benutzer ungezogen werden. Grundsätzlich verfügt jede Mainstream-KI-Plattform zur Text-, Bild- und Videogenerierung über eingebaute Leitplanken, um anzügliche oder sogar leicht romantische Anfragen zu blockieren. Meta hat WhatsApp, Facebook Messenger und Instagram-DMs eine Reihe von Chatbots hinzugefügt, darunter einen namens Carter, der als „praktischer Dating-Coach“ beschrieben wird. Carter wird mit Ihnen über Dating sprechen, aber selbst mit einem Roboter, der zur Dating-Hilfe entwickelt wurde, hat Gizmodo das herausgefunden Metas Roboter wird dich beschämen wenn Ihre Fragen einen Schritt vom Weg des Vanilla-Sex abweichen. Allerdings redete Carter seltsamerweise gerne über Fußthemen.

Der beste Weg nach vorne ist nicht ganz klar. Die Welt steht vor einer Epidemie der Einsamkeit, die offenbar mit dem Aufstieg des Internets zusammenhängt. Unsere Welt ist voller Werkzeuge wie Essensliefer-Apps Und Self-Checkout-Automaten die Sie aktiv dazu ermutigen, andere Menschen zu meiden. Es ist einfacher denn je, einen ganzen Tag völlig isoliert zu verbringen.

Andererseits gibt es viele Menschen, die Ihnen sagen werden, dass Technologie die Antwort auf die psychischen Probleme ist durch die Technik verursacht. Einige sind legitimer als andere. BetterHelp verbindet Sie beispielsweise bequem von Ihrem eigenen Telefon aus mit einem lizenzierten Therapeuten. (Fragen Sie einfach nicht danach ihre Datenschutzprobleme.) Kyle Barr von Gizmodo hat das sogar herausgefunden ein KI-Chatbot namens Pi verschaffte ihm in einer schwierigen Zeit vorübergehend Erleichterung.

Aber die Frage der KI-Freundin ist ein anderes Thema. Es kann schwierig sein, menschliche Kameradschaft zu finden. Es gibt viele Roboter, die Sie auf Befehl lieben werden. Das besteht den Geruchstest vielleicht nicht, aber wenn es um Fragen der öffentlichen Gesundheit geht, sollte unser Ansatz evidenzbasiert sein.

Natürlich verfügen die Leute, die KI-Begleiter herstellen, im Allgemeinen weder über eine psychologische Ausbildung, noch werden sie unbedingt dazu motiviert, Ihre Interessen im Auge zu behalten. Viele Leute denken, ein KI-Liebhaber sind von Natur aus eine schlechte Sache. Vielleicht ist es das, oder vielleicht kann eine Robo-Freundin in einer grausamen Welt für Ruhe sorgen. Das Zeug ist brandneu. Wir haben keine Ahnung, welche Auswirkungen dies haben wird und unter welchen Umständen. Die Antwort ist wahrscheinlich nuanciert, so frustrierend das auch sein mag.

Die Debatte über KI-Freundinnen ist wichtig, aber OpenAI führt sie nicht. Stattdessen strebt das Unternehmen das am wenigsten Befriedigende beider Welten an: Es setzt den Deckmantel von Weißbrot-Unternehmensmoral auf und macht sich dann nicht einmal die Mühe, an seinen geschlechtslosen Waffen festzuhalten.

source-113

Leave a Reply