Wie regelmäßige TechRadar-Leser wissen werden, hatten die stark beworbenen KI-Chatbot-Verbesserungen, die kürzlich zu Bing hinzugefügt wurden, nicht den reibungslosesten Start – und jetzt nimmt Microsoft einige Änderungen vor, um die Benutzererfahrung zu verbessern.
In einem Blogeintrag (öffnet in neuem Tab) (über Der Rand (öffnet in neuem Tab)), sagt Microsoft, dass die Optimierungen „helfen sollten, die Chat-Sitzungen zu fokussieren“: Der KI-Teil von Bing wird auf 50 Chat-Runden (eine Frage und Antwort) pro Tag und fünf Antworten pro Chat-Sitzung begrenzt.
Das kommt: Microsoft-Führungskräfte haben zuvor zu Protokoll gegeben, dass sie nach Möglichkeiten suchen, einige der seltsamen Verhaltensweisen zu unterbinden, die von frühen Testern des KI-Bot-Dienstes bemerkt wurden.
Auf die Probe stellen
Diese frühen Tester haben ziemlich hart getestet: Sie konnten den Bot, der auf einer aktualisierten Version der ChatGPT-Engine von OpenAI basiert, dazu bringen, ungenaue Antworten zurückzugeben, wütend zu werden und sogar die Natur seiner eigenen Existenz in Frage zu stellen.
Es ist nicht ideal, wenn Ihre Suchmaschine eine existenzielle Krise durchmacht, wenn Sie nur nach einer Liste der besten Telefone suchen. Microsoft sagt, dass sehr lange Chat-Sitzungen seine KI verwirren und dass die „große Mehrheit“ der Suchanfragen in 5 Antworten beantwortet werden kann.
Das KI-Add-on für Bing ist noch nicht für alle verfügbar, aber Microsoft sagt, dass es sich durch die Warteliste arbeitet. Wenn Sie vorhaben, die neue Funktionalität auszuprobieren, denken Sie daran, Ihre Interaktionen kurz und auf den Punkt zu bringen.
Analyse: Glauben Sie dem Hype noch nicht
Trotz der anfänglichen Probleme gibt es eindeutig viel Potenzial in den KI-gestützten Suchtools in der Entwicklung von Microsoft und Google. Egal, ob Sie nach Ideen für Partyspiele oder Sehenswürdigkeiten suchen, sie liefern schnelle, fundierte Ergebnisse – und Sie müssen sich nicht durch Seiten mit Links wühlen, um sie zu finden.
Gleichzeitig gibt es natürlich noch viel zu tun. Large Language Models (LLMs) wie ChatGPT und Microsofts Version davon „denken“ nicht wirklich als solche. Sie sind wie aufgeladene Autokorrektur-Motoren, die vorhersagen, welche Wörter aufeinander folgen sollten, um eine kohärente und relevante Antwort auf das zu geben, was von ihnen verlangt wird.
Hinzu kommt die Frage der Beschaffung – wenn sich die Leute auf KI verlassen, um ihnen zu sagen, was die besten Laptops sind, und menschliche Autoren arbeitslos machen, haben diese Chatbots nicht die Daten, die sie benötigen, um ihre zu produzieren Antworten. Wie traditionelle Suchmaschinen sind sie immer noch sehr abhängig von Inhalten, die von echten Menschen zusammengestellt werden.
Wir haben natürlich die Gelegenheit genutzt, um den ursprünglichen ChatGPT zu fragen, warum lange Interaktionen LLMs verwirren: Anscheinend kann es dazu führen, dass sich die KI-Modelle „zu sehr auf die spezifischen Details der Konversation konzentrieren“ und dazu führen, dass sie „sich nicht auf andere Kontexte oder Themen verallgemeinern“. , was zu Schleifenverhalten und Antworten führt, die „sich wiederholend oder irrelevant“ sind.