Google entschuldigt sich für die Verletzung der Gefühle der Weißen


Google entschuldigte sich am Freitag und sagte, sein Team habe mit einer neuen Bildgenerierungsfunktion für Google „einen Fehler gemacht“. Gemini-KI-Chatbot Nachdem verschiedene von ihm erstellte Bilder, die keine weißen Menschen zeigten, viral gingen. Ein Unternehmensleiter bestritt entschieden, dass Gemini absichtlich die Erstellung von Bildern einer bestimmten Personengruppe verweigern wollte.

„Das war nicht unsere Absicht. Wir wollten nicht, dass Gemini sich weigert, Bilder einer bestimmten Gruppe zu erstellen. Und wir wollten nicht, dass dadurch ungenaue historische oder andere Bilder entstehen“, sagte Prabhakar Raghavan, Senior Vice President von Google.

In einem BlogeintragRaghavan – der die Bereiche des Unternehmens überwacht, die das meiste Geld einbringen, darunter Die Google-Suche und ihr Anzeigengeschäft– gab eindeutig zu, dass der Bildgenerator von Gemini „einen Fehler gemacht“ habe und dass das Unternehmen versuchen würde, es besser zu machen. Viele Menschen waren empört über die historisch ungenauen Bilder von Gemini Schwarze Nazisoldaten und schwarze Wikinger sowie es ist offensichtlich Weigerung, Bilder von weißen Menschen zu erzeugenwas einige als rassistisch betrachteten.

Laut Raghavan geschah dies alles, weil Google nicht wollte, dass Gemini die gleichen Fehler machte, die andere Bildgeneratoren in der Vergangenheit gemacht hatten, wie zum Beispiel die Erstellung gewalttätiger Bilder, sexuell eindeutiger Bilder und Darstellungen realer Menschen.

„Also, was ist schief gelaufen? Kurz gesagt, zwei Dinge. Erstens haben wir bei unserer Abstimmung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, Fälle nicht berücksichtigt, die eindeutig sein sollten nicht Zeigen Sie eine Bandbreite“, schrieb Raghavan und betonte seine. „Und zweitens wurde das Modell im Laufe der Zeit viel vorsichtiger, als wir beabsichtigt hatten, und weigerte sich, bestimmte Eingabeaufforderungen vollständig zu beantworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel.“

Der Google-Vizepräsident fuhr fort, dass diese beiden Faktoren dazu führten, dass Gemini in manchen Fällen überkompensierte und in anderen zu überkonservativ sei. Insgesamt habe es zur Entstehung von Bildern geführt, die „peinlich und falsch“ seien.

Google hat am Donnerstag die Fähigkeit von Gemini, Bilder von Menschen zu generieren, deaktiviert und angekündigt, bald eine verbesserte Version zu veröffentlichen. Raghavan schien jedoch Zweifel an dem „bald“-Teil zu äußern und sagte, dass das Unternehmen daran arbeiten werde, die Funktion durch umfangreiche Tests deutlich zu verbessern, bevor sie sie wieder einschalte.

Raghavan erklärte, er könne nicht versprechen, dass Gemini in Zukunft keine peinlicheren, ungenaueren oder beleidigenderen Ergebnisse liefern würde, fügte jedoch hinzu, dass Google weiterhin eingreifen werde, um das Problem zu beheben.

„Eines sollten Sie bedenken: Gemini ist als Kreativitäts- und Produktivitätswerkzeug konzipiert und möglicherweise nicht immer zuverlässig, insbesondere wenn es darum geht, Bilder oder Texte zu aktuellen Ereignissen, sich entwickelnden Nachrichten oder aktuellen Themen zu generieren. Es wird Fehler machen“, sagte Raghavan.

source-113

Leave a Reply