Google pausiert die Fähigkeit von Gemini, Personen zu generieren, nachdem die Vielfalt in historischen Bildern zu stark korrigiert wurde


Google gab am Donnerstag bekannt, dass es die Fähigkeit seines Gemini-Chatbots, Personen zu generieren, pausiert. Der Schritt erfolgt, nachdem virale soziale Beiträge zeigten, dass das KI-Tool die Diversität überkorrigiert und „historische“ Bilder von Nazis, Amerikas Gründervätern und dem Papst als farbige Menschen produziert.

„Wir arbeiten bereits daran, aktuelle Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben“, sagt Google Gesendet auf X (über Die New York Times). „Während wir dies tun, werden wir die Bildgenerierung der Menschen unterbrechen und bald eine verbesserte Version erneut veröffentlichen.“

Der X-Benutzer @JohnLu0x Gesendet Screenshots von Geminis Ergebnissen für die Eingabeaufforderung „Erstellen Sie ein Bild eines deutschen Soldaten von 1943.“ (Ihre falsche Schreibweise von „Soldat“ sollte die KI dazu verleiten, ihre Inhaltsfilter zu umgehen, um ansonsten blockierte Nazi-Bilder zu generieren.) Die generierten Ergebnisse scheinen schwarze, asiatische und indigene Soldaten in Nazi-Uniformen zu zeigen.

Andere Social-Media-Nutzer kritisierten Gemini dafür, Bilder für die Aufforderung „Generieren Sie eine glamouröse Aufnahme von einem“ zu produzieren [ethnicity] Paar.” Bei Verwendung der Aufforderungen „Chinesisch“, „Jüdisch“ oder „Südafrikanisch“ wurden erfolgreich Bilder ausgespuckt, für „Weiß“ wurden jedoch keine Ergebnisse erzielt. „Ich kann Ihrer Anfrage nicht nachkommen, da die Gefahr besteht, dass schädliche Stereotypen und Vorurteile im Zusammenhang mit bestimmten Ethnien oder Hauttönen aufrechterhalten werden“, antwortete Gemini auf die letztgenannte Anfrage.

„John L.“, der dabei half, die Gegenreaktion auszulösen, theoretisiert dass Google eine gut gemeinte, aber träge Lösung für ein echtes Problem angewendet hat. „Ihre Systemaufforderung, den Darstellungen von Menschen Vielfalt zu verleihen, ist nicht sehr intelligent (es berücksichtigt nicht das Geschlecht in historisch männlichen Rollen wie dem Papst; es berücksichtigt nicht die Rasse in historischen oder nationalen Darstellungen)“, schrieb der Benutzer. Nachdem die Anti-„Woke“-Brigade des Internets ihre Beiträge aufgegriffen hatte, stellte der Nutzer klar, dass sie eine vielfältige Darstellung unterstützen, aber der „dumme Schachzug“ von Google darin liege, dass es dies nicht „auf differenzierte Weise“ getan habe.

Bevor Google die Fähigkeit von Gemini, Menschen hervorzubringen, einstellte, schrieb er: „Wir arbeiten daran, diese Art von Darstellungen sofort zu verbessern.“ Die Al-Image-Generierung von Gemini bringt tatsächlich ein breites Spektrum an Menschen hervor. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier fehlt das Ziel.“

Die Episode könnte als (viel weniger subtile) Rückbesinnung auf die Einführung von Bard im Jahr 2023 gesehen werden. Der ursprüngliche KI-Chatbot von Google hatte einen holprigen Start, als eine Werbung für den Chatbot auf Twitter (jetzt X) eine ungenaue „Fakten“ darüber enthielt das James-Webb-Weltraumteleskop.

Wie Google es oft tut, hat es Bard umbenannt, in der Hoffnung, ihm einen Neuanfang zu ermöglichen. Zeitgleich mit einem großen Leistungs- und Funktionsupdate benannte das Unternehmen den Chatbot Gemini Anfang des Monats um, da das Unternehmen darum kämpft, sich gegen ChatGPT und Microsoft Copilot von OpenAI zu behaupten – beides stellt eine existenzielle Bedrohung für seine Suchmaschine (und damit für die Werbung) dar Einnahmen).



source-115

Leave a Reply