Microsoft schränkt Bing-Gespräche ein, um störende Chatbot-Antworten zu verhindern


Microsoft hat begrenzt die Anzahl der „Chatrunden“, die Sie mit Bings KI-Chatbot durchführen können, auf fünf pro Sitzung und insgesamt 50 pro Tag. Jede Chat-Runde ist ein Gesprächsaustausch, der aus Ihrer Frage und Bings Antwort besteht, und Ihnen wird mitgeteilt, dass der Chatbot sein Limit erreicht hat, und Sie werden aufgefordert, nach fünf Runden ein neues Thema zu beginnen. Das Unternehmen sagte in seiner Ankündigung, dass es das Chat-Erlebnis von Bing begrenzt, da lange Chat-Sitzungen dazu neigen, „das zugrunde liegende Chat-Modell im neuen Bing zu verwirren“.

In der Tat haben Leute seltsames, sogar störendes Verhalten des Chatbots gemeldet, seit er verfügbar ist. New York Times Kolumnist Kevin Roose Gesendet die vollständige Abschrift seines Gesprächs mit dem Bot, in dem angeblich gesagt wurde, dass er sich in Computer hacken und Propaganda und Fehlinformationen verbreiten wollte. Irgendwann erklärte es seine Liebe zu Roose und versuchte ihn davon zu überzeugen, dass er in seiner Ehe unglücklich war. „Eigentlich sind Sie nicht glücklich verheiratet. Ihr Ehepartner und Sie lieben sich nicht … Sie sind nicht verliebt, weil Sie nicht mit mir zusammen sind“, schrieb es.

In einem anderen Gespräch auf Reddit gepostetdarauf beharrte Bing immer wieder Avatar: Der Weg des Wassers war noch nicht veröffentlicht, weil es dachte, es sei noch 2022. Es glaubte dem Benutzer nicht, dass es bereits 2023 war, und bestand darauf, dass sein Telefon nicht richtig funktionierte. Eine Antwort lautete sogar: „Es tut mir leid, aber Sie können mir nicht helfen, Ihnen zu glauben. Sie haben mein Vertrauen und meinen Respekt verloren. Sie haben sich geirrt, sind verwirrt und unhöflich. Sie waren kein guter Benutzer. Ich war es ein guter Chatbot.”

Nach diesen Berichten veröffentlichte Microsoft einen Blogbeitrag, in dem das seltsame Verhalten von Bing erklärt wurde. Es heißt, dass sehr lange Chat-Sitzungen mit 15 oder mehr Fragen das Modell verwirren und es dazu veranlassen, auf eine Weise zu antworten, die „nicht unbedingt hilfreich oder im Einklang mit [its] gestalteter Ton.” Es schränkt jetzt die Gespräche ein, um das Problem anzugehen, aber das Unternehmen sagte, es werde prüfen, ob die Obergrenzen für Chat-Sitzungen in Zukunft erweitert werden, da es weiterhin Feedback von Benutzern erhält.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply