Google verfolgt die Hauttöne von Menschen, um seine Suchergebnisse nach Angst vor technischem Rassismus „inklusiver“ zu gestalten

GOOGLE plant die Einführung einer neuen Skala zur Messung von Hauttönen, um KI-Voreingenommenheit zu beseitigen.

Nach der Partnerschaft mit dem Harvard-Professor Ellis Monk fördert Google eine neue Methode zur Identifizierung von Hauttönen in seinen Produkten und Diensten.

1

Google plant die Einführung einer neuen Skala zur Messung von Hauttönen, um KI-Voreingenommenheit zu beseitigen. Kredit: Google

„Oft haben die Leute das Gefühl, dass sie in rassische Kategorien eingeteilt werden: die schwarze Kategorie, die weiße Kategorie, die asiatische Kategorie usw., aber hier gibt es all diese Unterschiede“, sagte Monk.

„Sie brauchen ein viel feineres komplexes Verständnis, das dieser Unterscheidung zwischen einer breiten Rassenkategorie und all diesen phänotypischen Unterschieden zwischen diesen Kategorien wirklich gerecht wird.“

Als Reaktion auf diesen Bedarf entwickelte Monk, ein Assistenzprofessor für Soziologie in Harvard, die 10-stufige Monk Skin Tone Scale (MST).

Sein Modell soll veraltete KI-Hauttonskalen korrigieren, die auf hellere Haut ausgerichtet sind.

Wenn die Computer Vision (CV) einer KI die Hautfarbe nicht korrekt kategorisiert, kann dies zu Leistungsproblemen führen, insbesondere bei Menschen mit dunklerer Hautfarbe, erklärte Monk.

„Studien zeigen, dass Produkte, die mit den heutigen Technologien für künstliche Intelligenz (KI) und maschinelles Lernen (ML) entwickelt wurden, unfaire Vorurteile aufrechterhalten können und für Menschen mit dunkleren Hauttönen nicht gut funktionieren“, so Google schreibt.

Vor allem wird die Forschung den Nutzern helfen, Suchergebnisse zu erhalten und in der Fotos-App von Google.

In der Suche implementiert Google die MST-Skala, um Ergebnisse anzuzeigen, die dunklere Hauttöne stärker einbeziehen.

Zum Beispiel werden Braut-Make-up- oder haarbezogene Suchen mit einem Algorithmus geliefert, der verschiedene Hauttöne berücksichtigt, damit Benutzer die relevantesten Ergebnisse erhalten.

Und in Fotos wird die MST-Skala einen neuen Satz von „Real Tone-Filtern“ bieten, die „für Hauttöne gut geeignet sind“ und „eine breitere Auswahl an Looks“, so Google.

Google hofft, die Skala mit der Zeit in mehr seiner Produkte und Dienstleistungen einsetzen zu können, und nennt es einen „wichtigen nächsten Schritt in einer gemeinsamen Anstrengung, die Inklusivität von Hauttönen in der Technologie zu verbessern“.

“Für Google wird es uns helfen, Fortschritte bei unserem Engagement für Imagegerechtigkeit und die Verbesserung der Darstellung in unseren Produkten zu machen. Und indem wir die MST-Skala für alle freigeben, hoffen wir, es anderen einfacher zu machen, dasselbe zu tun, damit wir es können gemeinsam lernen und sich weiterentwickeln.”

Der Schritt des Technologieriesen folgt auf eine kürzlich im März erfolgte Klage, in der Google der Voreingenommenheit gegenüber schwarzen Mitarbeitern beschuldigt wurde.

Ein ehemaliger Mitarbeiter von Google verklagte das Unternehmen und behauptete, es habe „schwarze Arbeiter systematisch diskriminiert, indem es sie in niedrigere Jobs gebracht, sie unterbezahlt und ihnen Aufstiegsmöglichkeiten verweigert habe“, so die New York Times Berichte.

Diese Klage ist eine von vielen, die die Vorurteile der Technologiebranche herausstellt – nicht nur in Bezug auf Beschäftigungspraktiken, sondern auch in der Produktentwicklung.

„Maschinen können auf schädliche Weise diskriminieren. Ich habe das am eigenen Leib erfahren als ich 2015 Doktorand am MIT war und entdeckte, dass einige Gesichtsanalyse-Software mein dunkelhäutiges Gesicht nicht erkennen konnte, bis ich eine weiße Maske aufsetzte“, schrieb Joy Buolamwini 2019 für TIME.

„Diese Systeme werden oft mit Bildern von überwiegend hellhäutigen Männern trainiert“, fügte Buolamwini hinzu, der Untersuchungen zu großen geschlechtsspezifischen und rassistischen Vorurteilen in KI-Systemen durchführte, die von Technologiegiganten wie IBM, Microsoft und Amazon verkauft werden.

„Wir gehen oft davon aus, dass Maschinen neutral sind, aber das sind sie nicht.“

Ein weiteres Beispiel ist SkinVision, eine KI-gestützte App, die darauf abzielt, Krebs zu erkennen.

Der Algorithmus der App wurde jedoch im Jahr 2021 als effektiver für hellere Hauttöne in Frage gestellt.

Erika von RHOBH sieht ohne Make-up und Designerklamotten völlig unkenntlich aus
Ich bin ein Dollar Tree-Fan – die Ladengeheimnisse, die nur Mitarbeiter kennen

„Die Algorithmen sind alles andere als ideal, zum Teil, weil sie bestehende rassistische Vorurteile im Bereich der Dermatologie zu verstärken drohen“, schrieb Jyoti Madhusoodanan für Der Wächter im Jahr 2021.

„Uns fehlt ein strenger Rahmen, um überhaupt darüber nachzudenken, wie wir diese Algorithmen bewerten und testen sollten, bevor sie von Patienten verwendet werden“, sagt Dermatologin Veronica Rotemberg vom Memorial Sloan Kettering Cancer Center in New York.

Wir zahlen für Ihre Geschichten!

Haben Sie eine Geschichte für das Team von The US Sun?


source site-16

Leave a Reply