OpenAI verwendet GPT-4, um ein KI-gestütztes Content-Moderationssystem aufzubauen


ist seit Jahrzehnten eines der heikelsten Themen im Internet. Angesichts der Subjektivität, die damit einhergeht, herauszufinden, welche Inhalte auf einer bestimmten Plattform zulässig sein sollten, ist es für jeden ein schwieriges Thema. Maker glaubt, dass es helfen kann, und hat seine Fähigkeiten in der Inhaltsmoderation auf die Probe gestellt. Es nutzt das große multimodale Modell, „um ein Content-Moderationssystem aufzubauen, das skalierbar, konsistent und anpassbar ist“.

Das Unternehmen dass GPT-4 nicht nur dabei helfen kann, Entscheidungen zur Inhaltsmoderation zu treffen, sondern auch bei der Entwicklung von Richtlinien und der schnellen Iteration von Richtlinienänderungen helfen kann, „wodurch der Zyklus von Monaten auf Stunden verkürzt wird“. Es wird behauptet, dass das Modell die verschiedenen Vorschriften und Nuancen in Inhaltsrichtlinien analysieren und sich sofort an alle Aktualisierungen anpassen kann. Dies führt laut OpenAI zu einer einheitlicheren Kennzeichnung von Inhalten.

„Wir glauben, dass dies eine positivere Vision für die Zukunft digitaler Plattformen bietet, bei der KI dabei helfen kann, den Online-Verkehr entsprechend plattformspezifischer Richtlinien zu moderieren und die mentale Belastung einer großen Anzahl menschlicher Moderatoren zu verringern“, so Lilian Weng, Vik Goel und OpenAI Andrea Vallone schrieb. „Jeder mit OpenAI-API-Zugriff kann diesen Ansatz umsetzen, um sein eigenes KI-gestütztes Moderationssystem zu erstellen.“ OpenAI behauptet, dass GPT-4-Moderationstools Unternehmen dabei helfen können, etwa sechs Monate Arbeit an etwa einem Tag zu erledigen.

Es ist gut dokumentiert, dass die manuelle Überprüfung traumatischer Inhalte erhebliche Auswirkungen auf die psychische Gesundheit menschlicher Moderatoren haben kann, insbesondere wenn es um grafisches Material geht. Im Jahr 2020 zahlt Meta mehr als 11.000 Moderatoren jeweils mindestens 1.000 US-Dollar als Entschädigung für psychische Probleme, die möglicherweise auf die Überprüfung von auf Facebook gepostetem Material zurückzuführen sind.

Der Einsatz von KI zur Entlastung menschlicher Gutachter könnte von großem Nutzen sein. Meta beispielsweise setzt seit mehreren Jahren KI ein. Dennoch sagt OpenAI, dass menschliche Moderatoren bisher Hilfe von „kleineren, branchenspezifischen Modellen des maschinellen Lernens erhalten haben. Der Prozess ist von Natur aus langsam und kann zu psychischem Stress für menschliche Moderatoren führen.“

KI-Modelle sind alles andere als perfekt. Große Unternehmen nutzen KI schon lange in ihren Moderationsprozessen und, mit oder ohne Unterstützung der Technologie, . Es bleibt abzuwarten, ob das System von OpenAI viele der großen Moderationsfallen vermeiden kann, in die andere Unternehmen im Laufe der Jahre geraten sind.

Auf jeden Fall stimmt OpenAI zu, dass Menschen weiterhin in den Prozess einbezogen werden müssen. „Wir haben weiterhin eine menschliche Überprüfung durchgeführt, um einige der Modellurteile zu überprüfen“, sagte Vallone, der im Richtlinienteam von OpenAI arbeitet .

„Urteile anhand von Sprachmodellen sind anfällig für unerwünschte Verzerrungen, die möglicherweise während des Trainings in das Modell eingeführt wurden. Wie bei jeder KI-Anwendung müssen Ergebnisse und Ergebnisse sorgfältig überwacht, validiert und verfeinert werden, indem Menschen auf dem Laufenden gehalten werden“, heißt es im Blog von OpenAI Beitrag liest. „Durch die Reduzierung der menschlichen Beteiligung an einigen Teilen des Moderationsprozesses, die von Sprachmodellen gehandhabt werden können, können die Personalressourcen stärker auf die Behandlung der komplexen Grenzfälle konzentriert werden, die für die Verfeinerung der Richtlinien am dringendsten benötigt werden.“

source-115

Leave a Reply