Hier ist, was Google während seines AI@-Events behandelt hat


Google AI Research Scientist Timnit Gebru spricht am dritten Tag der TechCrunch Disrupt SF 2018 im Moscone Center am 7. September 2018 in San Francisco, Kalifornien, auf der Bühne.

Google AI Research Scientist Timnit Gebru spricht am dritten Tag der TechCrunch Disrupt SF 2018 im Moscone Center am 7. September 2018 in San Francisco, Kalifornien, auf der Bühne.
Foto: Kimberly Weiß (Getty Images)

Ein wiederkehrendes Thema bei Googles AI@-Event war eines von vermeintlicher Reflexion und vorsichtigem Optimismus. Dieses Gefühl traf besonders auf das Thema KI-Ethik zu, ein Bereich, mit dem Google in der Vergangenheit zu kämpfen hatte immer wichtiger in der aufstrebenden Welt der wild-generativen KI. Obwohl Google jahrelang seine eigenen KI-Prinzipien und Response-KI-Teams angepriesen hat, hat es vor allem danach einen heftigen Rückschlag von Kritikern erlebt Brennen mehrere hochkarätige KI-Forscher.

Marian Croak, Vizepräsident von Google für technische Forschung, erkannte einige potenzielle Fallstricke an, die von den am Mittwoch ausgestellten Technologien ausgehen. Dazu gehören Befürchtungen in Bezug auf erhöhte Toxizität und Voreingenommenheit, die durch Algorithmen verstärkt werden und sich weiter verschlechtern Vertrauen in Nachrichten durch Deepfakes und Fehlinformationen, die die Unterscheidung zwischen dem, was real ist, und dem, was nicht wahr ist, effektiv verwischen können. Ein Teil dieses Prozesses beinhaltet laut Croak die Durchführung von Forschungsarbeiten, die den Benutzern die Möglichkeit geben, mehr Kontrolle über KI-Systeme zu haben, sodass sie mit Systemen zusammenarbeiten, anstatt dem System die volle Kontrolle über Situationen zu überlassen.

Croak sagte, sie glaube, dass die KI-Prinzipien von Google die Nutzer und die Vermeidung von Schaden und Sicherheit „über das stellen, was unsere typischen Geschäftsüberlegungen sind“. Laut Croak führen verantwortungsbewusste KI-Forscher kontradiktorische Tests durch und setzen quantitative Maßstäbe in allen Dimensionen ihrer KI. Forscher, die diese Bemühungen durchführen, sind beruflich vielfältig und umfassen Berichten zufolge Sozialwissenschaftler, Ethiker und Ingenieure.

„Ich möchte nicht, dass die Prinzipien nur Worte auf dem Papier sind“, sagte Croak. In den kommenden Jahren hofft sie, die Fähigkeiten einer verantwortungsvollen KI in die technische Infrastruktur des Unternehmens eingebettet zu sehen. Verantwortungsbewusste KI, sagte Croak, sollte „in das System eingebacken“ werden.

source-113

Leave a Reply