Laut OpenAI verkürzt GPT-4 AI die Zeit für die Moderation von Inhalten von Monaten auf Stunden

OpenAI, der Entwickler hinter ChatGPT, befürwortet den Einsatz von künstlicher Intelligenz (KI) bei der Inhaltsmoderation und bekräftigt deren Potenzial, die betriebliche Effizienz von Social-Media-Plattformen durch die Beschleunigung der Bearbeitung anspruchsvoller Aufgaben zu steigern.

Das von Microsoft unterstützte KI-Unternehmen sagte dass sein neuestes GPT-4-KI-Modell in der Lage ist, die Zeitspanne für die Inhaltsmoderation von Monaten auf wenige Stunden deutlich zu verkürzen und so eine verbesserte Konsistenz bei der Kennzeichnung zu gewährleisten.

Die Moderation von Inhalten stellt für Social-Media-Unternehmen wie Meta, die Muttergesellschaft von Facebook, eine anspruchsvolle Aufgabe dar und erfordert die Koordination zahlreicher Moderatoren weltweit, um zu verhindern, dass Benutzer auf schädliches Material wie Kinderpornografie und Bilder mit hohem Gewaltgehalt zugreifen.

„Der Prozess (der Inhaltsmoderation) ist von Natur aus langsam und kann zu psychischem Stress für menschliche Moderatoren führen. Mit diesem System wird der Prozess der Entwicklung und Anpassung von Inhaltsrichtlinien von Monaten auf Stunden verkürzt.“

Der Erklärung zufolge untersucht OpenAI aktiv die Nutzung großer Sprachmodelle (LLMs), um diese Probleme anzugehen. Seine umfangreichen Sprachmodelle wie GPT-4 verfügen über die Fähigkeit, natürliche Sprache zu verstehen und zu produzieren, wodurch sie sich für die Moderation von Inhalten eignen. Diese Modelle sind in der Lage, Moderationsentscheidungen zu treffen, die sich an den ihnen vorgegebenen Richtlinien orientieren.

Bild, das den GPT-4-Prozess zur Inhaltsmoderation zeigt. Quelle: OpenAI

Die Vorhersagen von GPT-4 können kleinere Modelle für den Umgang mit umfangreichen Daten verfeinern. Dieses Konzept verbessert die Moderation von Inhalten auf verschiedene Weise, einschließlich der Konsistenz der Bezeichnungen, einer schnellen Feedbackschleife und einer Verringerung der mentalen Belastung.

In der Erklärung wurde hervorgehoben, dass OpenAI derzeit daran arbeitet, die Vorhersagegenauigkeit von GPT-4 zu verbessern. Ein Weg, der erforscht wird, ist die Integration von Gedankenketten-Argumentation oder Selbstkritik. Darüber hinaus experimentiert das Unternehmen mit Methoden zur Identifizierung unbekannter Risiken und lässt sich dabei von der konstitutionellen KI inspirieren.

Verwandt: Chinas neue KI-Vorschriften beginnen in Kraft zu treten

Das Ziel von OpenAI besteht darin, mithilfe von Modellen potenziell schädliche Inhalte auf der Grundlage umfassender Schadensbeschreibungen zu erkennen. Die aus diesen Bemühungen gewonnenen Erkenntnisse werden dazu beitragen, aktuelle Inhaltsrichtlinien zu verfeinern oder neue Richtlinien in unbekannten Risikobereichen zu entwickeln.

Darüber hinaus stellte Sam Altman, CEO von OpenAI, am 15. August klar, dass das Unternehmen davon absieht, seine KI-Modelle anhand von Benutzerdaten zu trainieren.

Zeitschrift: AI Eye: Apple entwickelt Taschen-KI, Deep-Fake-Music-Deal und hypnotisiert GPT-4