OpenAI erhält verhaltene Resonanz auf maßgeschneiderte KI-Angebote

OpenAI hat die Option zur Feinabstimmung für GPT-3.5 Turbo eingeführt, die es Entwicklern künstlicher Intelligenz (KI) ermöglicht, die Leistung bei bestimmten Aufgaben mithilfe dedizierter Daten zu verbessern. Allerdings äußerten die Entwickler sowohl Kritik als auch Begeisterung für die Entwicklung.

OpenAI geklärt dass Entwickler durch den Prozess der Feinabstimmung die Fähigkeiten von GPT-3.5 Turbo entsprechend ihren Anforderungen anpassen können. Ein Entwickler könnte beispielsweise GPT-3.5 Turbo verfeinern, um benutzerdefinierten Code zu erstellen oder Rechtsdokumente kompetent auf Deutsch zusammenzufassen, indem er einen Datensatz verwendet, der aus dem Geschäftsbetrieb des Kunden stammt.

Das Kürzliche Bekanntmachung hat eine vorsichtige Reaktion der Entwickler ausgelöst. In einem Kommentar, der einem X-Benutzer namens Joshua Segeren zugeschrieben wird, heißt es, dass die Einführung der Feinabstimmung von GPT-3.5 Turbo zwar faszinierend, aber keine umfassende Lösung sei. Basierend auf seinen Beobachtungen führt die Verbesserung von Eingabeaufforderungen, der Einsatz von Vektordatenbanken für semantische Suchen oder der Übergang zu GPT-4 oft zu besseren Ergebnissen als individuelles Training. Darüber hinaus sind Faktoren wie Einrichtungs- und laufende Wartungskosten zu berücksichtigen.

Die grundlegenden GPT-3.5 Turbo-Modelle beginnen bei einem Preis von 0,0004 $ pro 1.000 Token (die grundlegenden Einheiten, die von umfangreichen Sprachmodellen verarbeitet werden). Die durch Feinabstimmung verfeinerten Versionen sind jedoch mit höheren Kosten verbunden: 0,012 USD pro 1.000 Eingabe-Tokens und 0,016 USD pro 1.000 Ausgabe-Tokens. Zusätzlich fällt eine an das Datenvolumen gekoppelte Erstschulungsgebühr an.

Diese Funktion ist für Unternehmen und Entwickler von Bedeutung, die personalisierte Benutzerinteraktionen erstellen möchten. Unternehmen können beispielsweise das Modell so abstimmen, dass es mit der Stimme ihrer Marke harmoniert und so sicherstellt, dass der Chatbot eine konsistente Persönlichkeit und einen einheitlichen Ton aufweist, der die Markenidentität ergänzt.

Verwandt: Führende britische Universität arbeitet mit KI-Startup zusammen, um den Kryptomarkt zu analysieren

Um eine verantwortungsvolle Nutzung der Feinabstimmungsfunktion sicherzustellen, werden die für die Feinabstimmung verwendeten Trainingsdaten über ihre Moderations-API und das GPT-4-basierte Moderationssystem einer Prüfung unterzogen. Dies geschieht, um die Sicherheitsattribute des Standardmodells während des gesamten Feinabstimmungsverfahrens beizubehalten.

Das System ist bestrebt, potenziell unsichere Trainingsdaten zu erkennen und zu eliminieren und stellt so sicher, dass die verfeinerte Ausgabe mit den etablierten Sicherheitsnormen von OpenAI übereinstimmt. Dies bedeutet auch, dass OpenAI ein gewisses Maß an Kontrolle über die Daten hat, die Benutzer in seine Modelle eingeben.

Sammeln Sie diesen Artikel als NFT um diesen Moment in der Geschichte zu bewahren und Ihre Unterstützung für unabhängigen Journalismus im Kryptoraum zu zeigen.

Zeitschrift: AI Eye: Apple entwickelt Taschen-KI, Deep-Fake-Music-Deal und hypnotisiert GPT-4