Das Rennen um den Aufbau einer ChatGPT-betriebenen Suchmaschine


Ein weiteres Problem bei einem System wie ChatGPT ist, dass seine Antworten nur auf den Daten basieren, mit denen es trainiert wurde. Das vollständige Neutrainieren des Modells kann aufgrund seiner Größe und des Umfangs der Daten Millionen von Dollar kosten. You Chat ist verwirrt, wenn er nach den neuesten Sportergebnissen gefragt wird, weiß aber, wie das Wetter in New York gerade ist. Wie aktuelle Informationen einfließen, will Socher nicht verraten und sieht darin einen Wettbewerbsvorteil.

„Ich denke, im Moment sind viele dieser Chat-Schnittstellen der Sucherfahrung in mancher Hinsicht weit überlegen, aber in anderer Hinsicht sind sie eindeutig noch viel schlechter“, sagt Socher. „Wir arbeiten daran, all diese Probleme zu reduzieren.“

Aravind Srinivas, Gründer und CEO des Such-Startups Perplexity AI, der zuvor bei OpenAI gearbeitet hat, sagt, dass die Herausforderung, ein ChatGPT-ähnliches System mit aktuellen Informationen zu aktualisieren, bedeutet, dass sie mit etwas anderem kombiniert werden müssen. „Alleine werden sie niemals gute Suchmaschinen sein können“, sagt er.

Saam Motamedi, ein Risikokapitalgeber bei Greylock Partners, der in das KI-basierte Suchunternehmen Neeva investiert hat, sagt, es sei auch unklar, wie kompatibel Chat-Schnittstellen mit dem primären Einnahmemodell für Suchmaschinen sind – Werbung. Google und Bing verwenden Suchanfragen, um Anzeigen auszuwählen, die oben auf der Liste der Links erscheinen, die als Antwort bereitgestellt werden. Motamedi vermutet, dass neue Werbeformen entstehen müssen, damit Suchschnittstellen im Chat-Stil funktionieren, aber es ist nicht ganz klar, welche das sein werden. Neeva erhebt eine Abonnementgebühr für unbegrenzte werbefreie Suchen.

Die Kosten für den Betrieb eines Modells wie ChatGPT in der Größenordnung von Google könnten sich ebenfalls als problematisch erweisen. Luis Ceze, Mitbegründer und CEO von OctoML, einem Unternehmen, das Unternehmen dabei hilft, die Kosten für die Bereitstellung von Algorithmen für maschinelles Lernen zu senken, schätzt, dass es zehnmal teurer sein kann, eine ChatGPT-Suche durchzuführen als eine Google-Suche, da jede Antwort eine große und komplexes KI-Modell.

Das Ausmaß der ChatGPT-Manie hat einige Programmierer und KI-Forscher, die mit der zugrunde liegenden Technologie vertraut sind, überrascht. Der Algorithmus im Kern des Bots namens GPT war erstmals 2018 von OpenAI entwickelt, und eine leistungsstärkere Version, GPT-2, wurde 2019 vorgestellt. Es handelt sich um ein maschinelles Lernmodell, das darauf ausgelegt ist, Text aufzunehmen und dann vorherzusagen, was als Nächstes kommt, was OpenAI eindrucksvoll zeigen kann, wenn es mit riesigen Textmengen trainiert wird. Die erste kommerzielle Version der Technologie, GPT-3, steht Entwicklern seit Juni 2020 zur Verfügung und kann viele der Dinge leisten, für die ChatGPT in letzter Zeit gefeiert wurde.

ChatGPT verwendet eine verbesserte Version des zugrunde liegenden Algorithmus, aber der größte Sprung in seinen Fähigkeiten kommt von OpenAI, bei dem Menschen dem System Feedback geben, was eine zufriedenstellende Antwort ausmacht. Aber wie die Textgenerierungssysteme davor neigt ChatGPT immer noch dazu, Verzerrungen aus seinen Trainingsdaten zu reproduzieren und plausible, aber falsche Ergebnisse zu „halluzinieren“.

Gary Marcus, emeritierter Professor an der New York University und lautstarker Kritiker des KI-Hypes, glaubt das ChatGPT ist für die Suche ungeeignet weil es kein wahres Verständnis von dem hat, was es sagt. Er fügt hinzu, dass Tools wie ChatGPT Suchunternehmen andere Probleme bereiten könnten, indem sie das Internet mit KI-generiertem, suchmaschinenoptimiertem Text überschwemmen. „Alle Suchmaschinen werden bald ein Problem haben“, sagt er.

Alexander RatnerAssistenzprofessor an der University of Washington und Mitbegründer von Schnorchel-KI, das daran arbeitet, KI-Modelle effizienter zu trainieren, nennt ChatGPT „legitimerweise eine Beugung“ dessen, was Software leisten kann. Aber er sagt auch, dass es eine Weile dauern kann, bis man herausfindet, wie man verhindert, dass Sprachmodelle wie GPT Dinge erfinden. Er glaubt, dass die Suche nach einem Weg, sie mit neuen Informationen auf dem Laufenden zu halten, um die Suche aktuell zu halten, höchstwahrscheinlich neue Ansätze zum Trainieren der zugrunde liegenden KI-Modelle beinhalten wird.

Wie lange es dauern wird, diese Korrekturen zu erfinden und zu beweisen, ist unklar. Es kann einige Zeit dauern, bis die Technologie die Art und Weise, wie Menschen nach Antworten suchen, radikal verändern kann, selbst wenn andere Anwendungsfälle eintreten, wie z neue Rezepte erfinden oder als Studien- oder Programmierpartner dienen. „Es ist erstaunlich, und ich habe meinem Team gesagt, dass die Leute Jahre vor und nach ChatGPT sehen werden“, sagt Chen von Moveworks. „Aber ob es die Suche ersetzen wird, ist eine andere Frage.“

source-114

Leave a Reply