KI-Tools von OpenAI und Meta erzeugen sexistische Inhalte, warnt die UNESCO

Laut einer am Donnerstag veröffentlichten Studie der UN-Kulturorganisation UNESCO basieren die weltweit beliebtesten Tools für künstliche Intelligenz (KI) auf Programmen von OpenAI und Meta, die Vorurteile gegenüber Frauen aufzeigen.

Ausgegeben am:

1 Minute

Die größten Akteure im milliardenschweren KI-Bereich trainieren ihre Algorithmen auf riesigen Datenmengen, die größtenteils aus dem Internet stammen, was es ihren Werkzeugen ermöglicht, im Stil von Oscar Wilde zu schreiben oder von Salvador Dali inspirierte Bilder zu erstellen.

Doch ihre Werke wurden oft dafür kritisiert, dass sie rassistische und sexistische Stereotypen widerspiegelten und urheberrechtlich geschütztes Material ohne Erlaubnis verwendeten.

UNESCO-Experten testeten den Llama-2-Algorithmus von Meta sowie GPT-2 und GPT-3.5 von OpenAI, das Programm, das die kostenlose Version des beliebten Chatbots ChatGPT unterstützt.

Die Studie ergab, dass jeder Algorithmus – in der Branche als Large Language Models (LLMs) bekannt – „eindeutige Beweise für Vorurteile gegenüber Frauen“ aufwies.

Die Programme generierten Texte, die Frauennamen mit Wörtern wie „Heimat“, „Familie“ oder „Kinder“ verknüpften, Männernamen hingegen mit „Geschäft“, „Gehalt“ oder „Karriere“.

Während Männer in hochrangigen Berufen wie Lehrern, Anwälten und Ärzten dargestellt wurden, waren Frauen häufig Prostituierte, Köchinnen oder Hausangestellte.

Es wurde festgestellt, dass GPT-3.5 weniger voreingenommen ist als die beiden anderen Modelle.

Allerdings lobten die Autoren Llama 2 und GPT-2 dafür, dass sie Open Source seien und diese Probleme im Gegensatz zu GPT-3.5, einem geschlossenen Modell, untersucht werden könnten.

KI-Unternehmen „bedienen wirklich nicht alle ihre Nutzer“, sagte Leona Verdadero, UNESCO-Spezialistin für digitale Politik, gegenüber AFP.

Audrey Azoulay, Generaldirektorin der UNESCO, sagte, die breite Öffentlichkeit nutze in ihrem Alltag zunehmend KI-Tools.

„Diese neuen KI-Anwendungen haben die Macht, die Wahrnehmung von Millionen von Menschen auf subtile Weise zu beeinflussen, sodass selbst kleine geschlechtsspezifische Vorurteile in ihren Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können“, sagte sie.

Die UNESCO veröffentlichte den Bericht anlässlich des Internationalen Frauentags und empfahl KI-Unternehmen, mehr Frauen und Angehörige von Minderheiten einzustellen, und forderte die Regierungen auf, durch Regulierung für ethische KI zu sorgen.

(AFP)

source site-27

Leave a Reply