Googles „Woke“-Bildgenerator zeigt die Grenzen der KI


Google hat zugegeben, dass sein Gemini-KI-Modell „das Ziel verfehlt“ hat, nachdem es heftige Kritik an dem gab, was viele als „anti-weiße Voreingenommenheit“ empfanden. Zahlreiche Nutzer berichteten, dass das System Bilder von Menschen unterschiedlicher Ethnizität und sogar Geschlechts produzierte als es historisch gesehen ungenau war, dies zu tun. Das Unternehmen sagte Am Donnerstag würde es die Möglichkeit, Bilder von Menschen zu generieren, „pausieren“, bis eine Lösung eingeführt werden könnte.

Als Gemini aufgefordert wurde, ein Bild von Wikingern zu erstellen, zeigten sie ausschließlich Schwarze in traditioneller Wikingerkleidung. Auf Wunsch der „Gründerväter“ wurden indigene Menschen in Kolonialkleidung zurückgebracht; Ein anderes Ergebnis stellte George Washington als Schwarz dar. Wenn Sie gebeten werden, eine zu erstellen Bild eines Papstes zeigte das System nur Menschen anderer ethnischer Herkunft als Weiße an. In manchen Fällen Zwillinge sagte es konnte überhaupt kein Bild von historischen Persönlichkeiten wie Abraham Lincoln, Julius Caesar und Galileo erzeugen.

Viele rechte Kommentatoren haben sich auf das Thema gestürzt und vermuten, dass dies ein weiterer Beweis für eine anti-weiße Voreingenommenheit unter Big Tech sei, so der Unternehmer Mike Solana Schreiben dass „Googles KI ein anti-weißer Verrückter ist.“

Aber die Situation zeigt vor allem, dass generative KI-Systeme einfach nicht sehr intelligent sind.

„Ich denke, es ist einfach miese Software“, schrieb Gary Marcus, emeritierter Professor für Psychologie und Neurowissenschaften an der New York University und KI-Unternehmer, am Mittwoch Unterstapel.

Google hat vor zwei Monaten sein Gemini-KI-Modell als Rivale zum dominierenden GPT-Modell von OpenAI eingeführt, das ChatGPT antreibt. Letzte Woche hat Google mit der limitierten Version von Gemini Pro 1.5 ein großes Update herausgebracht, das es Benutzern ermöglicht, große Mengen an Audio-, Text- und Videoeingaben zu verarbeiten.

Gemini schuf auch Bilder, die historisch falsch waren, wie zum Beispiel eines, das die Besatzung von Apollo 11 zeigt, auf dem eine Frau und ein schwarzer Mann zu sehen sind.

Am Mittwoch gab Google zu, dass sein System nicht ordnungsgemäß funktionierte.

„Wir arbeiten daran, diese Art von Darstellungen sofort zu verbessern“, sagte Jack Krawczyk, Senior Director für Produktmanagement bei Googles Gemini Experiences, in einer E-Mail-Erklärung gegenüber WIRED. „Die KI-Bildgenerierung von Gemini generiert tatsächlich ein breites Spektrum an Menschen. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier fehlt das Ziel.“

Krawczyk erläuterte die Situation weiter unten ein Beitrag auf X: „Wir gestalten unsere Möglichkeiten zur Bilderzeugung so, dass sie unsere globale Nutzerbasis widerspiegeln, und wir nehmen Repräsentation und Voreingenommenheit ernst.“ Wir werden dies weiterhin für offene Eingabeaufforderungen tun (Bilder einer Person, die mit einem Hund spazieren geht, sind universell!). Historische Kontexte weisen mehr Nuancen auf, und wir werden uns weiter darauf einstellen, dies zu berücksichtigen.“

Er reagierte auch direkt auf einige Kritiker, indem er Screenshots seiner eigenen Interaktionen mit Gemini zur Verfügung stellte deutete darauf hin, dass die Fehler nicht universell waren.

Aber die Probleme, die Gemini hervorbrachte, wurden schnell von Anti-Wake-Mind-Kreuzfahrern im Internet ausgenutzt, die verschiedentlich behaupteten, Google sei „rassistisch“ oder „mit dem Woke-Mind-Virus infiziert“.



source-114

Leave a Reply