Elon Musk hat das „Ethical AI“-Team von Twitter gefeuert


Da immer mehr Probleme mit KI aufgetaucht sind, darunter Vorurteile in Bezug auf Rasse, Geschlecht und Alter, haben viele Technologieunternehmen „ethische KI“-Teams installiert, die sich angeblich der Identifizierung und Minderung solcher Probleme verschrieben haben.

Die META-Einheit von Twitter war fortschrittlicher als die meisten anderen, wenn es darum ging, Details zu Problemen mit den KI-Systemen des Unternehmens zu veröffentlichen und externen Forschern zu ermöglichen, ihre Algorithmen auf neue Probleme zu untersuchen.

Nachdem Twitter-Nutzer im vergangenen Jahr bemerkt hatten, dass ein Algorithmus zum Zuschneiden von Fotos weiße Gesichter zu bevorzugen schien, traf Twitter die ungewöhnliche Entscheidung, seine META-Einheit Details über die aufgedeckte Verzerrung veröffentlichen zu lassen. Die Gruppe startete auch einen der allerersten „Bias Bounty“-Wettbewerbe, bei denen externe Forscher den Algorithmus auf andere Probleme testen konnten. Letzten Oktober auch Chowdhurys Team veröffentlichte Details unbeabsichtigter politischer Voreingenommenheit auf Twitter, was zeigt, dass rechtsgerichtete Nachrichtenquellen tatsächlich mehr beworben wurden als linksgerichtete.

Viele externe Forscher sahen die Entlassungen als Schlag, nicht nur für Twitter, sondern auch für die Bemühungen zur Verbesserung der KI. “Was für eine Tragödie,” Kate Sternvogelein außerordentlicher Professor an der University of Washington, der Online-Desinformation studiert, schrieb auf Twitter.

Twitter-Inhalte

Dieser Inhalt kann auch auf der Website angezeigt werden stammt aus.

„Das META-Team war eine der wenigen guten Fallstudien eines Technologieunternehmens, das eine KI-Ethikgruppe betreibt, die mit der Öffentlichkeit und der Wissenschaft mit großer Glaubwürdigkeit interagiert“, sagt Ali AlkhatibDirektor des Center for Applied Data Ethics an der University of San Francisco.

Alkhatib sagt, dass Chowdhury in der KI-Ethik-Community unglaublich gut angesehen ist und ihr Team wirklich wertvolle Arbeit geleistet hat, um Big Tech zur Rechenschaft zu ziehen. „Es gibt nicht viele Unternehmensethik-Teams, die es wert sind, ernst genommen zu werden“, sagt er. „Das war einer von denen, deren Arbeit ich im Unterricht gelehrt habe.“

Markus Riedl, ein Professor, der KI an der Georgia Tech studiert, sagt, dass die Algorithmen, die Twitter und andere Social-Media-Giganten verwenden, einen enormen Einfluss auf das Leben der Menschen haben und untersucht werden müssen. „Ob META innerhalb von Twitter einen Einfluss hatte, ist von außen schwer zu erkennen, aber das Versprechen war da“, sagt er.

Riedl fügt hinzu, dass es ein wichtiger Schritt zu mehr Transparenz und Verständnis für Probleme rund um KI sei, Außenstehende die Algorithmen von Twitter untersuchen zu lassen. „Sie wurden zu einem Wachhund, der dem Rest von uns helfen könnte, zu verstehen, wie sich KI auf uns auswirkt“, sagt er. „Die Forscher von META hatten hervorragende Referenzen mit einer langen Geschichte des Studiums von KI zum Wohle der Gesellschaft.“

Was Musks Idee des Open-Sourcing des Twitter-Algorithmus betrifft, so wäre die Realität weitaus komplizierter. Es gibt viele verschiedene Algorithmen, die die Art und Weise beeinflussen, wie Informationen angezeigt werden, und es ist schwierig, sie ohne die Echtzeitdaten zu verstehen, mit denen sie in Form von Tweets, Aufrufen und Likes gefüttert werden.

Die Vorstellung, dass es einen Algorithmus mit expliziter politischer Ausrichtung gibt, könnte ein System zu stark vereinfachen, das noch heimtückischere Vorurteile und Probleme bergen kann. Diese aufzudecken, ist genau die Art von Arbeit, die die META-Gruppe von Twitter geleistet hat. „Es gibt nicht viele Gruppen, die die Verzerrungen und Fehler ihrer eigenen Algorithmen rigoros untersuchen“, sagt Alkhatib von der University of San Francisco. „META hat das gemacht.“ Und jetzt tut es das nicht.



source-114

Leave a Reply