Bings KI-betriebener Chatbot klingt, als bräuchte er eine von Menschen betriebene Therapie


Microsoft hat in der vergangenen Woche seinen ChatGPT-betriebenen Bing-Chatbot – intern mit dem Spitznamen „Sydney“ bezeichnet – für Edge-Benutzer eingeführt, und die Dinge fangen an, … interessant auszusehen. Und mit „interessant“ meinen wir „abseits der Schienen“.

Verstehen Sie uns nicht falsch – es ist intelligent, anpassungsfähig und beeindruckend nuanciert, aber das wussten wir bereits. Es beeindruckte Reddit-Benutzer Fit-Meet1359 mit seiner Fähigkeit, ein „Theory of Mind“-Puzzle richtig zu beantworten, was zeigt, dass es in der Lage war, die wahren Gefühle einer Person zu erkennen, obwohl sie nie explizit ausgesprochen wurden.

Konversation zwischen Reddit-Benutzer und Bing-Chatbot

(Bildnachweis: Reddit-Benutzer Fit-Meet1359)

Entsprechend Reddit-Benutzer TheSpiceHoardergelang es Bings Chatbot auch, den Antezedens des Pronomens „it“ im Satz richtig zu identifizieren: „Die Trophäe würde nicht in den braunen Koffer passen, weil er zu groß war.“

source-109

Leave a Reply