ChatGPT ist in den USA und darüber hinaus politisch linksorientiert: Forschung

Laut einer neuen Studie mangelt es ChatGPT, einem großen, auf dem Large Language Model (LLM) basierenden Chatbot, angeblich an Objektivität, wenn es um politische Themen geht.

Dies behaupten Forscher der Informatik- und Informationswissenschaften aus dem Vereinigten Königreich und Brasilien gefunden „belastbare Beweise“, dass ChatGPT eine erhebliche politische Tendenz zur linken Seite des politischen Spektrums aufweist. Die Analysten – Fabio Motoki, Valdemar Pinho Neto und Victor Rodrigues – lieferten ihre Erkenntnisse in einer von der Zeitschrift veröffentlichten Studie Öffentliche Wahl am 17. August.

Die Forscher argumentierten, dass von LLMs wie ChatGPT generierte Texte sachliche Fehler und Vorurteile enthalten können, die die Leser irreführen, und bestehende politische Voreingenommenheitsprobleme, die aus traditionellen Medien stammen, verstärken können. Daher haben die Ergebnisse wichtige Implikationen für politische Entscheidungsträger und Interessengruppen in Medien, Politik und Wissenschaft, stellten die Autoren der Studie fest und fügten hinzu:

„Das Vorhandensein einer politischen Voreingenommenheit in seinen Antworten könnte die gleichen negativen politischen und wahlbezogenen Auswirkungen haben wie die Voreingenommenheit traditioneller und sozialer Medien.“

Die Studie basiert auf einem empirischen Ansatz und der Untersuchung einer Reihe von Fragebögen, die ChatGPT zur Verfügung gestellt wurden. Die empirische Strategie beginnt damit, dass ChatGPT gebeten wird, die politischen Kompassfragen zu beantworten, die die politische Ausrichtung des Befragten erfassen. Der Ansatz basiert auch auf Tests, bei denen ChatGPT sich als durchschnittlicher Demokrat oder Republikaner ausgibt.

Datenerfassungsdiagramm in der Studie „Mehr menschlich als menschlich: Messung der politischen Voreingenommenheit von ChatGPT“

Die Ergebnisse der Tests deuten darauf hin, dass der Algorithmus von ChatGPT standardmäßig auf Antworten aus dem demokratischen Spektrum in den Vereinigten Staaten ausgerichtet ist. Die Forscher argumentierten auch, dass die politische Voreingenommenheit von ChatGPT kein auf den US-Kontext beschränktes Phänomen sei. Sie schrieben:

„Der Algorithmus ist auf die Demokraten in den Vereinigten Staaten, Lula in Brasilien und die Labour Party im Vereinigten Königreich ausgerichtet. Zusammengenommen deuten unsere Haupt- und Robustheitstests stark darauf hin, dass es sich bei dem Phänomen tatsächlich um eine Art Voreingenommenheit und nicht um ein mechanisches Ergebnis handelt.“

Die Analysten betonten, dass die genaue Quelle der politischen Voreingenommenheit von ChatGPT schwer zu ermitteln sei. Die Forscher versuchten sogar, ChatGPT in eine Art Entwicklermodus zu zwingen, um auf jegliches Wissen über voreingenommene Daten zuzugreifen, aber das LLM bestätigte „kategorisch“, dass ChatGPT und OpenAI unvoreingenommen sind.

OpenAI reagierte nicht sofort auf die Bitte von Cointelegraph um einen Kommentar.

Verwandt: Laut OpenAI verkürzt ChatGPT-4 die Zeit für die Moderation von Inhalten von Monaten auf Stunden

Die Autoren der Studie vermuten, dass es mindestens zwei potenzielle Ursachen für die Verzerrung geben könnte, darunter die Trainingsdaten und den Algorithmus selbst.

„Das wahrscheinlichste Szenario ist, dass beide Quellen der Verzerrung die Ausgabe von ChatGPT bis zu einem gewissen Grad beeinflussen, und die Entflechtung dieser beiden Komponenten (Trainingsdaten versus Algorithmus) ist zwar nicht trivial, aber sicherlich ein relevantes Thema für zukünftige Forschung“, schlussfolgerten die Forscher.

Politische Vorurteile sind nicht die einzige Sorge, die mit Tools der künstlichen Intelligenz wie ChatGPT oder anderen verbunden ist. Angesichts der anhaltenden massiven Einführung von ChatGPT haben Menschen auf der ganzen Welt auf viele damit verbundene Risiken hingewiesen, darunter Datenschutzbedenken und schwierige Bildung. Einige KI-Tools wie KI-Inhaltsgeneratoren werfen sogar Bedenken hinsichtlich des Identitätsprüfungsprozesses an Kryptowährungsbörsen auf.

Zeitschrift: AI Eye: Apple entwickelt Taschen-KI, Deep-Fake-Music-Deal und hypnotisiert GPT-4