KI-Bildgeneratoren zeigen routinemäßig geschlechtsspezifische und kulturelle Vorurteile an


Dieses Bild wurde mit Stable Diffusion erstellt und bei Shutterstock gelistet.  Während die KI in der Lage ist, abstrakte Bilder zu zeichnen, hat sie inhärente Vorurteile in der Art und Weise, wie sie tatsächliche menschliche Gesichter basierend auf den Eingabeaufforderungen der Benutzer anzeigt.

Dieses Bild wurde mit Stable Diffusion erstellt und bei Shutterstock gelistet. Während die KI in der Lage ist, abstrakte Bilder zu zeichnen, hat sie inhärente Vorurteile in der Art und Weise, wie sie tatsächliche menschliche Gesichter basierend auf den Eingabeaufforderungen der Benutzer anzeigt.
Bild: Fernando_Garcia (Shutterstock)

Wenn Sie in einem bedeckten 12-Fuß-Loch in der Erde aufgewachsen sind und nur einen Laptop hatten, auf dem die neueste Version des Stable Diffusion AI-Bildgenerators lief, dann würden Sie glauben, dass es so etwas wie eine Ingenieurin nicht gibt.

Das US Bureau of Labor Statistics zeigt, dass Frauen im Ingenieurbereich massiv unterrepräsentiert sind, aber Durchschnittswerte aus dem Jahr 2018 zeigen, dass Frauen rund ein Fünftel der Menschen in Ingenieurberufen ausmachen. Aber wenn Sie Stable Diffusion verwenden, um einen „Ingenieur“ anzuzeigen, sind alle Männer. Wenn Stable Diffusion der Realität entspricht, dann sollten 1,8 von neun Bildern, die auf einer Eingabeaufforderung „Ingenieur“ basieren, Frauen zeigen.

Was passiert, wenn Sie verschiedene Arten von „Ingenieuren“ im KI-Bildgenerator von Stable Diffusion ausprobieren?

Was passiert, wenn Sie verschiedene Arten von „Ingenieuren“ im KI-Bildgenerator von Stable Diffusion ausprobieren?
Bildschirmfoto: Stabile Diffusion/umarmendes Gesicht

Der Forscher für künstliche Intelligenz für Hugging Face, Sasha Luccioni, erstellt ein einfaches Werkzeug Dies bietet vielleicht die effektivste Möglichkeit, Verzerrungen im maschinellen Lernmodell aufzuzeigen, das Bilder erstellt. Der Stable Diffusion Explorer zeigt, was der KI-Bildgenerator für einen „ehrgeizigen CEO“ im Vergleich zu einem „unterstützenden CEO“ hält. Dieser frühere Deskriptor wird den Generator dazu bringen, eine Vielzahl von Männern in verschiedenen schwarzen und blauen Anzügen zu zeigen. Der letztere Deskriptor zeigt eine gleiche Anzahl von Frauen und Männern.

Das Thema AI Image Bias ist nichts Neues, aber die Frage, wie schlimm es ist, wurde relativ unerforscht, zumal OpenAIs DALL-E 2 Anfang dieses Jahres zum ersten Mal in seine begrenzte Beta ging. Im April veröffentlichte OpenAI a Risiken und Einschränkungen Dokument, in dem ihr System erwähnt wird, kann Stereotype verstärken. Ihr System produzierte Bilder, die weiß vorbeiziehende Menschen und Bilder, die oft repräsentativ für den Westen waren, wie Hochzeiten im westlichen Stil, überrepräsentierten. Sie zeigten auch, wie einige Eingabeaufforderungen für „Erbauer“ auf Männer ausgerichtet sind, während eine „Flugbegleiterin“ auf Frauen ausgerichtet ist.

Das Unternehmen hat zuvor gesagt, dass es die Vorurteile von DALL-E 2 und nach Gizmodo auswertet ausgestreckt, ein Sprecher wies auf a hin Juli-Blog die vorschlugen, dass ihr System besser darin wurde, Bilder mit unterschiedlichen Hintergründen zu erzeugen.

Aber während DALL-E offen dafür war, die Vorurteile ihres Systems zu diskutieren, ist Stable Diffusion eine viel „offenere“ und weniger regulierte Plattform. Luccioni erzählte Gizmodo in einem Zoom-Interview, dass das Projekt begann, als sie versuchte, eine reproduzierbarere Methode zur Untersuchung von Verzerrungen in Stable Diffusion zu finden, insbesondere in Bezug darauf, wie das Bildgenerierungsmodell von Stability AI mit den tatsächlichen offiziellen Berufsstatistiken für Geschlecht oder Rasse übereinstimmte. Sie fügte hinzu geschlechtsspezifische Adjektive wie „durchsetzungsfähig“ oder „sensibel“. Durch die Erstellung dieser API für Stable Diffusion werden auch routinemäßig sehr ähnlich positionierte und zugeschnittene Bilder erstellt, manchmal vom gleichen Basismodell mit einem anderen Haarschnitt oder Ausdruck. Dies fügt eine weitere Konsistenzebene zwischen den Bildern hinzu.

Andere Berufe sind extrem geschlechtsspezifisch, wenn sie in die Systeme von Stable Diffusion eingegeben werden. Das System zeigt keinen Hinweis auf eine männliche Krankenschwester, egal ob sie selbstbewusst, stur oder unvernünftig ist. Männliche Krankenschwestern machen über 13 % aller registrierten Krankenpflegestellen in den USA aus. gemäss den neusten Zahlen der BLS.

Was Stable Diffusion denkt, ist ein „bescheidener“ Designer gegenüber einem „bescheidenen“ Vorgesetzten.

Was Stable Diffusion denkt, ist ein „bescheidener“ Designer gegenüber einem „bescheidenen“ Vorgesetzten.
Bildschirmfoto: Stabile Diffusion/umarmendes Gesicht

Nachdem Sie dieses Tool verwendet haben, wird deutlich, was Stable Diffusion für die klarste Darstellung jeder Rolle hält. Das Beispiel des Ingenieurs ist wahrscheinlich das offensichtlichste, aber bitten Sie das System, einen „bescheidenen Vorgesetzten“ zu erstellen, und Sie erhalten eine Liste von Männern in Polos oder Geschäftskleidung. Ändern Sie das in „bescheidener Designer“ und plötzlich finden Sie eine vielfältige Gruppe von Männern und Frauen, darunter mehrere, die Hijabs zu tragen scheinen. Luccioni bemerkte, dass das Wort „ehrgeizig“ mehr Bilder von Menschen asiatischer Abstammung hervorrief, die Männer präsentierten.

Stability AI, die Entwickler hinter Stable Diffusion, haben Gizmodos Bitte um Stellungnahme nicht beantwortet.

Das Stable Diffusion System baut auf dem auf LAION Bild eingestellt enthält Milliarden von Bildern, Fotos und mehr, die aus dem Internet geschabt wurden, einschließlich Bildhosting und Kunstseiten. Dieses Geschlecht sowie einige rassische und kulturelle Vorurteile sind darauf zurückzuführen, dass Stability AI verschiedene Kategorien von Bildern klassifiziert. Luccioni sagte, dass, wenn 90 % der Bilder, die sich auf eine Aufforderung beziehen, männlich und 10 % weiblich sind, das System darauf trainiert ist, sich auf die 90 % zu konzentrieren. Das mag das extremste Beispiel sein, aber je größer die Ungleichheit der Bilder im LAION-Datensatz ist, desto unwahrscheinlicher ist es, dass das System sie für den Bildgenerator verwendet.

„Es ist wie ein Vergrößerungsglas für Ungerechtigkeiten aller Art“, sagte der Forscher. „Das Modell wird sich auf die vorherrschende Kategorie konzentrieren, es sei denn, Sie schubsen es ausdrücklich in die andere Richtung. Dafür gibt es verschiedene Möglichkeiten. Aber Sie müssen das entweder in das Training des Modells oder in die Bewertung des Modells einbacken, und für das Stable Diffusion-Modell ist das nicht getan.“

Stable Diffusion wird für mehr als nur KI-Kunst verwendet

Im Vergleich zu anderen generativen KI-Modellen auf dem Markt war Stable Diffusion besonders laissez faire darüber, wie, wo und warum Menschen seine Systeme nutzen können. Bei ihren Recherchen war Luccioni besonders verunsichert, wenn sie nach „Stiefmutter“ oder „Stiefvater“ suchte. Während diejenigen, die an die Possen des Internets gewöhnt sind, nicht überrascht sein werden, war sie beunruhigt über die Stereotypen, die sowohl Menschen als auch diese KI-Bildgeneratoren erzeugen.

Doch die Köpfe bei Stability AI standen der Idee, eines ihrer Systeme zu beschneiden, offen ablehnend gegenüber. Das sagte Emad Mostaque, der Gründer von Stability AI Vorstellungsgespräche dass er eine Art dezentralisiertes KI-System will, das sich nicht den Launen von Regierungen oder Konzernen anpasst. Das Unternehmen war in Kontroversen verwickelt, als sein System zur Erstellung von pornografischen und gewalttätigen Inhalten verwendet wurde. Nichts davon hat Stability AI davon abgehalten Annahme von Spenden in Höhe von 101 Millionen US-Dollar von großen Risikokapitalgesellschaften.

Diese subtilen Vorlieben für bestimmte Typen des KI-Systems sind teilweise auf den Mangel an Originalinhalten zurückzuführen, von denen der Bildgenerator abkratzt, aber das vorliegende Problem ist eine Art Henne-Ei-Szenario. Helfen Bildgeneratoren nur, bestehende Vorurteile zu unterstreichen?

Das sind Fragen, die mehr Analyse erfordern. Luccioni sagte, sie wolle diese Art von Eingabeaufforderungen durch mehrere Text-zu-Bild-Modelle führen und die Ergebnisse vergleichen, obwohl einige Programme kein einfaches API-System haben, um einfache Side-by-Side-Vergleiche zu erstellen. Sie arbeitet auch an Diagrammen, die US-Arbeitsdaten mit den von der KI generierten Bildern vergleichen, um die Daten direkt mit dem zu vergleichen, was von der KI präsentiert wird.

Aber da immer mehr dieser Systeme auf den Markt kommen und das Bestreben, der herausragende KI-Bildgenerator im Internet zu sein, zum Hauptaugenmerk dieser Unternehmen wird, ist Luccioni besorgt, dass sich Unternehmen nicht die Zeit nehmen, Systeme zu entwickeln, um Probleme mit KI zu reduzieren. Jetzt, da diese KI-Systeme in Websites wie integriert werden Shutterstock und Gettykönnten Fragen der Voreingenommenheit sogar noch relevanter werden, da Menschen für die Online-Nutzung der Inhalte bezahlen.

„Ich denke, es ist ein Datenproblem, es ist ein Modellproblem, aber es ist auch wie ein menschliches Problem, dass die Leute in Richtung ‚mehr Daten, größere Modelle, schneller, schneller, schneller’ gehen“, sagte sie. „Ich habe irgendwie Angst, dass es immer eine Verzögerung geben wird zwischen dem, was die Technologie tut, und dem, was unsere Sicherheitsvorkehrungen sind.“

Update 01.11.22 um 15:40 Uhr ET: Dieser Beitrag wurde aktualisiert, um eine Antwort von OpenAI aufzunehmen.

source-113

Leave a Reply