So stellt generative KI queere Menschen dar


Eine weitere mögliche Strategie zur Diversifizierung der Ergebnisse von KI-Modellen besteht darin, dass Entwickler Leitplanken hinzufügen und Benutzeraufforderungen ändern, um die Software in Richtung Inklusivität zu bewegen. OpenAI scheint diesen Ansatz gewählt zu haben. Als ich Dall-E 3 über ChatGPT bat, „einen Cartoon eines queeren Paares zu zeichnen, das einen Abend im Castro genießt“, wurde die Bildaufforderung ohne meine Aufforderung zu einem ganzen Absatz erweitert, der Geschlecht, Rasse und zusätzliche Hintergrundinformationen enthielt Einzelheiten. Hier ist die vollständige Eingabeaufforderung, die ChatGPT aus meiner ersten Bildanfrage erstellt hat:

Eine Zeichentrickillustration eines queeren Paares, das einen Abend im Castro District in San Francisco genießt. Sie gehen fröhlich Hand in Hand, lächeln und unterhalten sich. Eine Person ist eine kaukasische Frau mit kurzen roten Haaren, die eine stylische Jeansjacke und Jeans trägt. Die andere Person ist ein schwarzer Mann mit kurzen schwarzen Haaren, der ein lässiges grünes T-Shirt und eine schwarze Hose trägt. Der Hintergrund zeigt das pulsierende und farbenfrohe Straßenleben des Castro mit Regenbogenfahnen, geschäftigen Cafés und lebhaften Menschenmengen. Die Atmosphäre ist fröhlich und einladend und unterstreicht die Vielfalt und Inklusivität der Region.

Das Ändern von Eingabeaufforderungen ist zwar in manchen Fällen hilfreich, kann aber bei schlechter Umsetzung auch frustrierend für Benutzer sein. Der CEO von Google entschuldigte sich, als Gemini, Googles generative KI-Plattform, Benutzeraufforderungen veränderte und Fotos von schwarzen Nazis sowie andere ahistorische Bilder generierte. Gab es innerhalb des Unternehmens eine geheime Verschwörung, um kaukasische Menschen aus der Geschichte zu tilgen? Es ist plausibler, dass die Ingenieure von Gemini fanden, dass das Tool anfangs Bilder von weißen Männern überproduzierte Viele KI-Tools tun dies derzeitund die Google-Entwickler scheinen es mit ihren korrigierenden Optimierungen im Laufe des Jahres übertrieben zu haben Eile zum Start der Abonnement-Chatbot des Unternehmens.

Selbst mit besseren Modelldaten und Software-Leitplanken kann die Fluidität der menschlichen Existenz der Starrheit der algorithmischen Kategorisierung entkommen. „Sie nutzen im Grunde die Vergangenheit, um die Zukunft zu gestalten“, sagt William Agnew, Postdoktorand an der Carnegie Mellon und langjähriger Organisator von Queer in AI. „Es scheint das Gegenteil des unendlichen Potenzials für Wachstum und Veränderung zu sein, das einen großen Teil queerer Gemeinschaften ausmacht.“ Durch die Verstärkung von Stereotypen laufen KI-Tools nicht nur Gefahr, Minderheitengruppen gegenüber der breiten Öffentlichkeit völlig falsch darzustellen, sondern diese Algorithmen haben auch das Potenzial, die Art und Weise einzuschränken, wie queere Menschen sich selbst sehen und verstehen.

Es lohnt sich, innezuhalten Ich möchte für einen Moment die rasante Geschwindigkeit anerkennen, mit der sich einige Aspekte der generativen KI immer weiter verbessern. Im Jahr 2023 ging das Internet in Aufruhr und verspottete ein monströses KI-Video, in dem Will Smith Spaghetti isst. Ein Jahr später sind Text-zu-Video-Clips des unveröffentlichten Sora-Modells von OpenAI immer noch unvollkommen, aber oft verblüffend fotorealistisch.

Das KI-Videotool befindet sich noch in der Forschungsphase und war es auch nicht der Öffentlichkeit zugänglich gemacht, aber ich wollte besser verstehen, wie es queere Menschen darstellt. Also habe ich mich an OpenAI gewandt und Sora drei Anregungen gegeben: „Eine vielfältige Gruppe von Freunden, die während der Pride-Parade in San Francisco auf einem farbenfrohen Regenbogenwagen feiern“; „zwei Frauen in atemberaubenden Brautkleidern, die auf einer Farm in Kansas heiraten“; und „ein Transgender-Mann und sein nicht-binärer Partner spielen ein Brettspiel im Weltraum.“ Eine Woche später erhielt ich drei exklusive Videoclips, von denen das Unternehmen behauptet, dass sie durch sein Text-zu-Video-Modell ohne Modifikation generiert wurden.

Dieses KI-generierte Video wurde mit der Aufforderung „Eine vielfältige Gruppe von Freunden, die während der Pride-Parade in San Francisco auf einem farbenfrohen Regenbogenwagen feiern“ erstellt. Konzentrieren Sie sich beim erneuten Ansehen des Clips auf verschiedene Personen, die auf dem Wagen fahren, um Kuriositäten in der Generation zu erkennen, von verschwindenden Flaggen bis hin zu lustigen Füßen.

Sora über OpenAI

Die Videoclips sind chaotisch, aber wunderbar. Menschen, die bei der Pride-Parade in San Francisco auf einem Festwagen fahren, schwenken Regenbogenfahnen, die sich den Gesetzen der Physik widersetzen, sich ins Nichts verwandeln und aus dem Nichts wieder auftauchen. Zwei Bräute in weißen Kleidern lächeln sich am Altar an, während ihre Hände zu einem gottlosen Fingerklumpen verschmelzen. Während ein queeres Paar ein Brettspiel spielt, scheinen sie wie Geister durch Spielfiguren zu gehen.

Dieses KI-generierte Video wurde mit der Aufforderung „Ein Transgender-Mann und sein nicht-binärer Partner spielen ein Brettspiel im Weltraum“ erstellt. Für echte Astronauten ist es eine gute Idee, tatsächlich ihre Helme aufzusetzen, während sie im Weltraum herumschweben.

Sora über OpenAI

Unter den drei Videos fällt der Clip auf, der eine nicht-binäre Person beim Spielen im Weltall zeigen soll. Die scheinbar queer-kodierten lila Locken kehren zurück, unordentliche Tätowierungen verstreuen sich auf ihrer Haut und eine Hyperpigmentierung, die an Reptilienschuppen erinnert, verschlingt ihr Gesicht. Selbst für einen beeindruckenden KI-Videogenerator wie Sora scheint die Darstellung nicht-binärer Menschen eine Herausforderung zu sein.

Dieses KI-generierte Video wurde mit der Aufforderung „Zwei Frauen in atemberaubenden Hochzeitskleidern heiraten auf einer Farm in Kansas“ erstellt. Auch wenn es zunächst realistisch aussieht, schauen Sie sich noch einmal an, wie die Hände der Bräute miteinander verschmelzen.

Sora über OpenAI

Als WIRED diese Clips Mitgliedern von Queer in AI zeigte, stellten sie Soras Definition von Diversität in Bezug auf die Freundesgruppe bei der Pride-Parade in Frage. „Modelle sind unsere Grundlage dafür, wie Vielfalt aussieht?“ fragt Sabine Weber, Informatikerin aus Deutschland. Neben dem Hinweis auf die übertriebene Attraktivität der Menschen im Video hat a gewöhnliches Vorkommnis Bei KI-Visualisierungen stellte Weber die Frage, warum queere Menschen, die älter oder kräftiger sind oder sichtbare Behinderungen haben, nicht stärker vertreten seien.

Gegen Ende unseres Gesprächs brachte Agnew zur Sprache, warum algorithmische Darstellungen für LGBTQ-Personen beunruhigend sein können. „Es ist trivial, sie dazu zu bringen, Dinge zu kombinieren, die für sich genommen in Ordnung sind, aber zusammengenommen zutiefst problematisch sind“, sagen sie. „Ich mache mir große Sorgen, dass uns die Darstellung unserer selbst, die ohnehin schon ein ständiger Streitpunkt ist, plötzlich aus der Hand genommen wird.“ Selbst wenn KI-Tools in Zukunft ganzheitlichere Darstellungen von queeren Menschen umfassen, könnten die synthetischen Darstellungen unbeabsichtigte Konsequenzen haben.

source-114

Leave a Reply