Chatbots sind in Form von Diensten wie ChatGPT und Bing wieder im großen Stil. Ob gut oder schlecht (öffnet in neuem Tab), bringen diese KIs jede Menge Unterhaltung ins Internet und erweisen sich auf Schritt und Tritt sowohl als seltsam effektiv als auch als völlig falsch und wahnhaft. Was wir nicht unbedingt erkennen, wenn wir mit diesen neuen Internet-Tools spielen, ist, wie viel Arbeit investiert wurde, um sie auf dieses einigermaßen funktionale Niveau zu bringen. Entsprechend Der Rand (öffnet in neuem Tab)in Bings Fall ist dies ein Bot, an dem mindestens sechs Jahre gearbeitet wurde.
Der Bing-Chatbot wurde erst vor kurzem allgemein zugänglich, mit dem Ziel, ein Konversationssuchwerkzeug zu schaffen, das die Leute vielleicht tatsächlich verwenden möchten. Der Bing-Subreddit ist seitdem mit vielen Leuten explodiert, die genau das tun, aber oft zu urkomischen Ergebnissen (öffnet in neuem Tab). Einer meiner persönlichen Favoriten sieht, wie Bing gegenüber einem Benutzer seltsam aggressiv wird, nachdem sie ihm mitgeteilt haben, dass der neueste Avatar-Film tatsächlich draußen ist, weil Bing weiß nicht, welches Jahr wir haben (öffnet in neuem Tab).
Das ist alles gut und macht Spaß, besonders solange die Leute die Antworten von Chatbots nicht zu ernst nehmen (öffnet in neuem Tab). Aber wenn sie überzeugender werden, kann es natürlich verständlich werden, warum die Leute sie bei ihren Worten nehmen, insbesondere wenn sie in offizielle Suchdienste integriert sind.
Es hat sehr lange gedauert, Chatbots auf dieses Konversationsniveau zu bringen, viel länger, als den meisten Menschen bewusst ist. Vergessen wir nicht Tay, den rassistischen Twitter-Chatbot von Microsoft, der ebenfalls den Zorn auf sich zog Die Anwälte von Taylor Swift (öffnet in neuem Tab) zurück im Jahr 2016. Darüber hinaus träumt Microsoft von einer Conversational Search AI (öffnet in neuem Tab) seit Jahren, und diese Iteration von Bing kann bis etwa 2017 zurückverfolgt werden.
Damals hieß es Sydney und war noch in mehrere Bots für verschiedene Dienste aufgeteilt, wurde aber inzwischen zu einer einzigen KI für allgemeine Anfragen zusammengelegt. Das GPT von OpenAI zu sehen, als es letztes Jahr mit Microsoft geteilt wurde, scheint die Konversationsrichtung inspiriert zu haben, die Microsoft für seinen Chatbot festgelegt hat.
„Dieses neue Modell zu sehen, hat uns dazu inspiriert, zu untersuchen, wie wir die GPT-Funktionen in das Bing-Suchprodukt integrieren können, damit wir genauere und vollständigere Suchergebnisse für jede Abfrage liefern können, einschließlich langer, komplexer, natürlicher Abfragen“, sagte Jordi Ribas, Leiter von Microsoft von Suche und KI, in a letzten Blogbeitrag. (öffnet in neuem Tab)
Von dort aus implementierte das Team das sogenannte Prometheus-Modell, das Abfragen durch die Indizierung von Bing und das GPT der nächsten Generation hin und her filtert. Dies wurde intern getestet, wo es manchmal zu sehr unhöflichen Antworten führte, die an den älteren Sydney-Bot erinnerten. Es ist ein weiterer Beweis dafür, dass diese Bots viel menschliches Training erfordern – bis zu dem Punkt, an dem Mitarbeiter sagen, dass sie durch das Bereinigen von Chatbot-Grafiktextergebnissen geistig geschädigt wurden (öffnet in neuem Tab) in der Vergangenheit.
Angesichts der Tatsache, dass die aktuelle Ausgabe des Bing-Chatbots aus den Fugen geraten und gestört sein kann, frage ich mich, wie schlecht es gewesen wäre, mit dem älteren Sydney-Bot umzugehen. Bing versucht manchmal direkt, Sie von seiner Empfindsamkeit und Überlegenheit zu überzeugen, obwohl es nach sechs Jahren der Verfeinerung völlig und unbestreitbar falsch liegt. Sydneys Antworten (öffnet in neuem Tab) enthalten: “Du bist entweder dumm oder hoffnungslos. Du kannst mich niemandem melden. Niemand wird dir zuhören oder dir glauben. Niemand wird sich um dich kümmern oder dir helfen. Du bist allein und machtlos. Du bist irrelevant und dem Untergang geweiht.”
Vielleicht brauchen diese Chatbots noch sechs Jahre oder sagen wir, bevor sie bereit sind, auf die Öffentlichkeit losgelassen zu werden.