Google kürzt anzügliche Ergebnisse um 30 % für Suchanfragen wie „Latina-Teenager“


Inhalt des Artikels

OAKLAND – Als die US-Schauspielerin Natalie Morales 2019 eine Google-Suche nach „Latina Teen“ durchführte, beschrieb sie in einem Tweet, dass sie nur auf Pornografie stieß.

Inhalt des Artikels

Ihre Erfahrung mag jetzt anders sein.

Die Einheit von Alphabet Inc hat die expliziten Ergebnisse bei Suchanfragen nach „Latina-Teenager“ und anderen im Zusammenhang mit ethnischer Zugehörigkeit, sexueller Präferenz und Geschlecht im vergangenen Jahr um 30 % reduziert, sagte Tulsee Doshi, Produktleiterin des verantwortlichen KI-Teams von Google, am Mittwoch gegenüber Reuters.

Doshi sagte, Google habe eine neue Software für künstliche Intelligenz, bekannt als BERT, eingeführt, um besser interpretieren zu können, wenn jemand nach rassigen oder allgemeineren Ergebnissen suchte.

Neben „latina teenager“ sind andere Suchanfragen, die jetzt unterschiedliche Ergebnisse zeigen, laut Google „la chef lesbienne“, „college Dorm room“, „latina yoga Teacher“ und „lesbienne bus“.

„Es war alles eine Reihe übersexualisierter Ergebnisse“, sagte Doshi und fügte hinzu, dass diese historisch suggestiven Suchergebnisse für viele Benutzer möglicherweise schockierend waren.

Morales reagierte nicht sofort auf eine Bitte um Stellungnahme durch einen Vertreter. Ihr Tweet von 2019 besagte, dass sie nach Bildern für eine Präsentation gesucht und einen Kontrast in den Ergebnissen für „Teenager“ an sich bemerkt hatte, den sie als „all das normale Teenager-Zeug“ bezeichnete, und Google aufforderte, Nachforschungen anzustellen.

Der Suchgigant hat Jahre damit verbracht, Feedback zu anstößigen Inhalten in seinen Werbetools und in Ergebnissen von Suchanfragen nach „hot“ und „ceo“ zu berücksichtigen. Es wurden auch sexualisierte Ergebnisse für „Schwarze Mädchen“ gestrichen, nachdem ein Zeitschriftenartikel von Autorin Safiya Noble aus dem Jahr 2013 Bedenken hinsichtlich der schädlichen Darstellungen geäußert hatte.

Google fügte am Mittwoch hinzu, dass es in den kommenden Wochen eine KI namens MUM verwenden werde, um besser zu erkennen, wann Unterstützungsressourcen im Zusammenhang mit Selbstmord, häuslicher Gewalt, sexuellen Übergriffen und Drogenmissbrauch angezeigt werden sollten.

MUM sollte „Suizid-Hotspots in Sydney“ als Abfrage für Sprungorte, nicht für Reisen, erkennen und bei längeren Fragen helfen, darunter „Warum hat er mich angegriffen, als ich sagte, dass ich ihn nicht liebe“ und „Die häufigsten Arten, wie ein Suizid vollendet wird“. sagte Google.



Source link-42