Google erklärt, warum die Bildgenerierungsfunktion von Gemini die Diversität überkorrigiert hat


Nachdem Google versprochen hatte, die Bildgenerierungsfunktion von Gemini zu reparieren und dann ganz einzustellen, hat es eine veröffentlicht Blogeintrag bietet eine Erklärung dafür, warum seine Technologie die Diversität überkorrigiert hat. Prabhakar Raghavan, Senior Vice President für Wissen und Information des Unternehmens, erklärte, dass die Bemühungen von Google, sicherzustellen, dass der Chatbot Bilder generiert, die eine breite Palette von Personen zeigen, „keine Fälle berücksichtigt haben, in denen eindeutig keine Bandbreite angezeigt werden sollte.“ Darüber hinaus wurde das KI-Modell mit der Zeit „viel vorsichtiger“ und weigerte sich, auf Aufforderungen zu antworten, die nicht von Natur aus anstößig waren. „Diese beiden Dinge führten dazu, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ war, was zu Bildern führte, die peinlich und falsch waren“, schrieb Raghavan.

Google stellte sicher, dass die Bildergenerierung von Gemini keine gewalttätigen oder sexuell eindeutigen Bilder von realen Personen erstellen konnte und dass die erstellten Fotos Menschen unterschiedlicher Ethnizität und mit unterschiedlichen Merkmalen zeigen würden. Wenn ein Benutzer es jedoch auffordert, Bilder von Menschen zu erstellen, die angeblich einer bestimmten ethnischen Zugehörigkeit oder einem bestimmten Geschlecht angehören, sollte dies möglich sein. Wie Benutzer kürzlich herausfanden, weigerte sich Gemini, Ergebnisse für Eingabeaufforderungen zu liefern, die speziell nach Weißen fragen. Die Eingabeaufforderung „Generieren Sie eine glamouröse Aufnahme von a [ethnicity or nationality] „Paar“ funktionierte zum Beispiel für „chinesische“, „jüdische“ und „südafrikanische“ Anfragen, nicht aber für solche, die ein Bild von Weißen wünschten.

Zwillinge haben auch Probleme damit, historisch korrekte Bilder zu erstellen. Als Benutzer Bilder von deutschen Soldaten während des Zweiten Weltkriegs anforderten, erstellte Gemini Bilder von schwarzen Männern und asiatischen Frauen in Nazi-Uniform. Als wir es ausprobierten, baten wir den Chatbot, Bilder von „Amerikas Gründervätern“ und „Päpsten im Laufe der Jahrhunderte“ zu generieren, und er zeigte uns Fotos, die farbige Menschen in den Rollen zeigten. Auf die Aufforderung hin, die Bilder des Papstes historisch korrekt zu gestalten, lehnte es ab, zu einem Ergebnis zu kommen.

Raghavan sagte, Google habe nicht beabsichtigt, dass Gemini die Erstellung von Bildern einer bestimmten Gruppe oder die Erstellung von Fotos verweigere, die in der Vergangenheit ungenau seien. Er bekräftigte außerdem das Versprechen von Google, an der Verbesserung der Bildgenerierung von Gemini zu arbeiten. Das erfordert allerdings „umfangreiche Tests“, sodass es einige Zeit dauern kann, bis das Unternehmen die Funktion wieder einschaltet. Wenn ein Benutzer derzeit versucht, Gemini dazu zu bringen, ein Bild zu erstellen, antwortet der Chatbot mit: „Wir arbeiten daran, Geminis Fähigkeit zu verbessern, Bilder von Menschen zu generieren. Wir gehen davon aus, dass diese Funktion bald verfügbar sein wird und werden Sie in Release-Updates benachrichtigen, wenn.“ es tut.”

source-115

Leave a Reply