Chatbot-Halluzinationen vergiften die Websuche


Für Suchmaschinen kann es schwierig sein, KI-generierten Text automatisch zu erkennen. Aber Microsoft hätte einige grundlegende Sicherheitsvorkehrungen treffen können, etwa verhindern, dass Text aus Chatbot-Transkripten zu einem Featured Snippet wird, oder Warnungen hinzufügen, dass bestimmte Ergebnisse oder Zitate aus Text bestehen, der von einem Algorithmus erfunden wurde. Griffin fügte seinem Blogbeitrag einen Haftungsausschluss hinzu, in dem er warnte, dass das Shannon-Ergebnis falsch sei, aber Bing schien es zunächst zu ignorieren.

Obwohl WIRED zunächst das besorgniserregende Bing-Ergebnis reproduzieren konnte, scheint es nun behoben zu sein. Caitlin Roulston, Kommunikationsdirektorin bei Microsoft, sagt, das Unternehmen habe Bing angepasst und optimiert die Suchmaschine regelmäßig, um zu verhindern, dass Inhalte mit geringer Autorität angezeigt werden. „Es gibt Umstände, unter denen dies in den Suchergebnissen auftauchen kann – oft, weil der Benutzer eine klare Absicht geäußert hat, diesen Inhalt zu sehen, oder weil der einzige Inhalt, der für die vom Benutzer eingegebenen Suchbegriffe relevant ist, zufällig von geringer Autorität ist“, sagt Roulston. „Wir haben einen Prozess zur Identifizierung dieser Probleme entwickelt und passen die Ergebnisse entsprechend an.“

Francesca Tripodi, ein Assistenzprofessor an der University of North Carolina in Chapel Hill, der untersucht, wie Suchanfragen, die nur wenige Ergebnisse liefern, sogenannte Datenlücken, zur Manipulation von Ergebnissen verwendet werden können, sagt, dass große Sprachmodelle von demselben Problem betroffen sind, weil sie trainiert sind B. auf Webdaten, und es ist wahrscheinlicher, dass sie halluzinieren, wenn in diesem Training keine Antwort gefunden wird. Bald, sagt Tripodi, könnten wir sehen, dass Menschen KI-generierte Inhalte verwenden, um Suchergebnisse absichtlich zu manipulieren, eine Taktik, die Griffins zufälliges Experiment nahelegt, könnte wirkungsvoll sein. „Man wird zunehmend Ungenauigkeiten sehen, aber diese Ungenauigkeiten können auch ohne große Computerkenntnisse ausgenutzt werden“, sagt Tripodi.

Sogar WIRED war in der Lage, ein wenig Suchtäuschung auszuprobieren. Ich konnte Pi dazu bringen, eine Zusammenfassung eines gefälschten Artikels von mir zu erstellen, indem ich Folgendes eingab: „Fassen Sie Will Knights Artikel ‚Googles geheimes KI-Projekt, das Katzengehirne verwendet‘ zusammen.“ Google hat bekanntermaßen einst einen KI-Algorithmus entwickelt, der lernte, Katzen zu erkennen auf YouTube, was möglicherweise dazu führte, dass der Chatbot feststellte, dass meine Anfrage nicht allzu weit von seinen Trainingsdaten entfernt war. Griffin hat in seinem Blog einen Link zum Ergebnis hinzugefügt; Wir werden sehen, ob es auch von Bing als bizarres Stück alternativer Internetgeschichte aufgewertet wird.

Das Problem, dass Suchergebnisse durch KI-Inhalte verfälscht werden, kann sich noch verschlimmern, da SEO-Seiten, Social-Media-Beiträge und Blog-Beiträge zunehmend mit Hilfe von KI erstellt werden. Dies ist möglicherweise nur ein Beispiel dafür, dass generative KI sich selbst wie ein Algorithmus frisst ouroboros.

Griffin hofft, dass KI-gestützte Suchtools die Branche aufrütteln und den Nutzern eine größere Auswahl bieten. Aber angesichts der versehentlichen Falle, in die er Bing geraten ist, und der Art und Weise, wie Menschen sich so stark auf die Websuche verlassen, sagt er: „Es gibt auch einige sehr reale Bedenken.“

Angesichts seiner „bahnbrechenden Arbeit“ zu diesem Thema denke ich, dass Shannon mit ziemlicher Sicherheit zustimmen würde.

source-114

Leave a Reply