Was du wissen musst
- Microsofts neuer Bing-Chat ist nach langen Benutzergesprächen etwas verrückt geworden.
- Bing Chat ist jetzt auf fünf Runden begrenzt, damit es nicht aus den Fugen gerät.
- Neue Beweise zeigen, dass Microsoft „Sidney“ im November getestet hat und bereits ähnliche Probleme hatte.
- Zusammengenommen stellen die Vorfälle die Ethik von Microsoft in Frage, Bing Chat so früh zu veröffentlichen.
Es gibt in letzter Zeit viele Dramen und Rückschläge rund um Microsofts Bing Chat. Anfang dieses Monats der Weltöffentlichkeit angekündigt und in einer frühen Vorschau für eine kleine, aber wachsende Kohorte veröffentlicht, hat der neue „Co-Pilot“ für die Suche möglicherweise zu früh zu viel Lob verdient.
Neue Beweise zeigen, dass Microsoft Bing Chat (Codename „Sidney“) im November in Indien öffentlich getestet hat. Darüber hinaus gab es bereits dokumentierte Beschwerden darüber, dass die KI nach langen Gesprächen durchdrehte, was vielen nach der Ankündigung von Microsoft klar wurde.
Ben SchmidtVizepräsident für Informationsdesign bei Nomic, war Berichten zufolge der erste, der über den Fund berichtete, was später von getwittert wurde @rawxrawxraw und vom Forscher abgedeckt Dr. Gary Marcus.
A auf Microsoft Answers posten (öffnet in neuem Tab), die offizielle Community- und Feedback-Website für die verschiedenen Produkte von Microsoft, vom 23. November 2022, trug den Titel: „Dieser KI-Chatbot „Sidney“ benimmt sich schlecht.“ Der Beitrag ist den jüngsten Berichten sehr ähnlich, wonach Bing Chat nach längeren Interaktionen ein bisschen verrückt wurde und entweder gruselig oder, wie die Posterin Deepa Gupta bemerkte, „unhöflich“ wurde:
Guptas Antworten sind nicht konstruktiv, da er aggressiver gegenüber der KI wird, während seine Frustration zunimmt, einschließlich Beschimpfungen und Drohungen, ihr Verhalten aufzudecken. Ich habe vor Kurzem bei This Week in Tech und unserem Podcast halb im Scherz über solches Verhalten von Leuten gescherzt, dass man mit diesen Chatbots oft einige wirklich abstoßende Aktionen von Leuten sieht, was den Punkt beweist.
Nichtsdestotrotz muss auch hier Microsoft gerufen werden. Alles, was in diesem Microsoft Answers-Thread beschrieben wird, ist genau das, was diesen Monat passiert ist, als Bing Chat mit seiner eingeschränkten Vorschau öffentlich war. Microsoft hätte eindeutig von diesen beunruhigenden Veränderungen in „Sidneys“ Verhalten wissen müssen, aber das Unternehmen hat es trotzdem veröffentlicht.
Seit der Entlarvung der seltsamen Persönlichkeiten von Bing Chat hat Microsoft das Wechselspiel in Gesprächen auf nur fünf Antworten beschränkt. (Es wurde jedoch gerade angekündigt, dass es diese Zahl erhöht und noch mehr tun wird, da es weiterhin verstärktes Lernen aus Daten des menschlichen Feedbacks (RLHF) nutzt, um das Chat-Erlebnis zu verbessern.)
Microsoft hat eine große Sache darüber gemacht ‘Verantwortliche KI (öffnet in neuem Tab),“ sogar Dokumente zu Regeln veröffentlichen, die es bei der Verwendung der Technologie befolgt, und versuchen, so transparent wie möglich über seine Technologie zu sein. Es ist jedoch klar, dass Microsoft entweder das Verhalten seines eigenen Chatbots nicht kannte oder fahrlässig war, ihn diesen Monat so wie er ist für die Öffentlichkeit zu veröffentlichen.
Keine der Optionen ist besonders beruhigend.
Take von Windows Central
Wir befinden uns in einer neuen Ära, in der KI endlich Realität wird, insbesondere wenn Microsoft und Google um Mindshare konkurrieren. Natürlich wird es, wie bei jedem Rennen, Fälle geben, in denen Unternehmen voreilig handeln. Leider überholen sich Microsoft und Google (mit ihrer katastrophalen Ankündigung) gegenseitig.
Es sollte auch offensichtlich sein, dass wir neue unbekannte Gewässer betreten. Während Microsoft die verantwortungsbewusste KI vorantreibt, fliegt sie hier meistens am Hosenboden vorbei, da die vollständigen Auswirkungen dieser Technologie unbekannt sind.
Sollte KI sein anthropomorphisierteinschließlich eines Namens, einer Persönlichkeit oder einer physischen Repräsentation?
Wie viel sollte die KI über Sie wissen, einschließlich des Zugriffs auf die gesammelten Daten?
Sollten Regierungen an der Regulierung dieser Technologie beteiligt werden?
Wie transparent sollten Unternehmen sein, wie ihre KI-Systeme funktionieren?
Keine dieser Fragen hat einfache Antworten. Damit die KI gut funktioniert, muss sie viel über die Welt und idealerweise über Sie wissen. KI hilft Ihnen am effektivsten, wenn sie Ihre Gewohnheiten, Vorlieben, Vorlieben, Geschichte und Persönlichkeit lernt – aber dazu müssen viele Informationen an ein Unternehmen weitergegeben werden.
Wie weit soll das gehen?
Ebenso, um KI menschenähnlicher zu machen. Menschen sind auf einer bestimmten Ebene ziemlich dumm, und KI dazu zu bringen, sich wie eine andere Person zu verhalten, einschließlich eines Namens und sogar eines Gesichts, steigert das Engagement absolut, was all diese Unternehmen wollen. Aber mit dieser Anthropomorphisierung gehen Risiken einher, auch emotionale für den Benutzer, falls er sich zu sehr auf die KI einlässt (es gibt viele einsame Menschen weltweit).
In den kommenden Wochen, Monaten und Jahren wird es viele Premieren und neue Ankündigungen in der KI geben, mit vielen Fehlern, Risiken und sogar Fahrlässigkeit. Leider bin ich mir nicht sicher, ob alle auf das vorbereitet sind, was als nächstes kommt.