Lernen Sie die Menschen kennen, die versuchen, uns vor KI zu schützen


Vor einem Jahr, Die Idee, mit einem Computer ein bedeutungsvolles Gespräch zu führen, war Stoff für Science-Fiction. Aber seit OpenAIs ChatGPT im vergangenen November auf den Markt kam, fühlt sich das Leben eher wie ein Techno-Thriller mit einer rasanten Handlung an. Chatbots und andere generative KI-Tools beginnen, die Art und Weise, wie Menschen leben und arbeiten, grundlegend zu verändern. Aber ob sich diese Handlung als erhebend oder dystopisch erweist, hängt davon ab, wer beim Schreiben hilft.

Zum Glück entwickelt sich die künstliche Intelligenz ebenso weiter wie die Menschen, die sie entwickeln und erforschen. Dies ist eine vielfältigere Gruppe von Führungskräften, Forschern, Unternehmern und Aktivisten als diejenigen, die den Grundstein für ChatGPT gelegt haben. Obwohl die KI-Gemeinschaft nach wie vor überwiegend männlich ist, haben einige Forscher und Unternehmen in den letzten Jahren darauf gedrängt, sie für Frauen und andere unterrepräsentierte Gruppen zugänglicher zu machen. Dank einer überwiegend von Frauen geführten Bewegung, die sich mit den ethischen und gesellschaftlichen Auswirkungen der Technologie befasst, beschäftigt sich in diesem Bereich inzwischen mehr als nur die Entwicklung von Algorithmen oder das Geldverdienen. Hier sind einige der Menschen, die diese sich beschleunigende Handlung prägen. – Will Knight

Über die Kunst

„Ich wollte generative KI nutzen, um das Potenzial und das Unbehagen einzufangen, das wir empfinden, wenn wir unsere Beziehung zu dieser neuen Technologie erkunden“, sagt der Künstler Sam Cannon, der mit vier Fotografen zusammenarbeitete, um Porträts mit von der KI erstellten Hintergründen zu verbessern. „Es fühlte sich an wie ein Gespräch – ich füttere die KI mit Bildern und Ideen, und die KI bietet im Gegenzug ihre eigenen an.“


Rumman Chowdhury

FOTO: CHERIL SANCHEZ; KI-Kunst von Sam Cannon

Rumman Chowdhury führte Twitters ethische KI-Forschung, bis Elon Musk das Unternehmen übernahm und ihr Team entließ. Sie ist Mitbegründerin von Humane Intelligence, einer gemeinnützigen Organisation, die Crowdsourcing nutzt, um Schwachstellen in KI-Systemen aufzudecken, und Wettbewerbe entwickelt, die Hacker herausfordern, schlechtes Verhalten in Algorithmen hervorzurufen. Die erste Veranstaltung, die mit Unterstützung des Weißen Hauses für diesen Sommer geplant ist, wird generative KI-Systeme von Unternehmen wie Google und OpenAI testen. Chowdhury sagt, dass groß angelegte, öffentliche Tests aufgrund der weitreichenden Auswirkungen von KI-Systemen erforderlich sind: „Wenn die Auswirkungen davon die Gesellschaft im Großen und Ganzen betreffen, sind dann nicht die besten Experten die Menschen in der Gesellschaft im Großen und Ganzen?“ – Khari Johnson


Sarah BirdFoto: Annie Marie Musselman; KI-Kunst von Sam Cannon

Sarah Birds Job Bei Microsoft geht es darum, zu verhindern, dass die generative KI, die das Unternehmen seinen Office-Apps und anderen Produkten hinzufügt, aus dem Ruder läuft. Während sie beobachtete, wie Textgeneratoren wie der hinter dem Bing-Chatbot immer leistungsfähiger und nützlicher wurden, konnte sie auch beobachten, dass sie besser darin wurden, voreingenommene Inhalte und schädlichen Code auszuspucken. Ihr Team arbeitet daran, die dunkle Seite der Technologie einzudämmen. KI könnte das Leben vieler Menschen zum Besseren verändern, sagt Bird, aber „nichts davon ist möglich, wenn die Menschen Angst haben, dass die Technologie stereotype Ergebnisse produziert.“ –KJ


Yejin ChoiFoto: Annie Marie Musselman; KI-Kunst von Sam Cannon

Yejin Choi, a Professor an der School of Computer Science & Engineering der University of Washington, entwickelt ein Open-Source-Modell namens Delphi, das darauf ausgelegt ist, ein Gefühl für richtig und falsch zu vermitteln. Sie interessiert sich dafür, wie Menschen Delphis moralische Äußerungen wahrnehmen. Choi möchte so leistungsfähige Systeme wie die von OpenAI und Google, die keine großen Ressourcen erfordern. „Der derzeitige Fokus auf die Waage ist aus verschiedenen Gründen sehr ungesund“, sagt sie. „Es ist eine totale Machtkonzentration, einfach zu teuer und wahrscheinlich nicht der einzige Weg.“ —WK


Margaret MitchellFoto: Annie Marie Musselman; KI-Kunst von Sam Cannon

Margaret Mitchell gegründet Sie trat 2017 dem Ethical AI-Forschungsteam von Google bei. Vier Jahre später wurde sie nach einem Streit mit Führungskräften über ein von ihr mitverfasstes Papier entlassen. Darin wurde gewarnt, dass große Sprachmodelle – die Technologie hinter ChatGPT – Stereotypen verstärken und andere Krankheiten verursachen können. Mitchell ist jetzt Ethik-Chef bei Hugging Face, einem Startup, das Open-Source-KI-Software für Programmierer entwickelt. Sie setzt sich dafür ein, dass die Veröffentlichungen des Unternehmens keine bösen Überraschungen bereithalten, und ermutigt die Branche, Menschen über Algorithmen zu stellen. Generative Modelle können hilfreich sein, sagt sie, aber sie könnten auch den Wahrheitssinn der Menschen untergraben: „Wir laufen Gefahr, den Bezug zu den Fakten der Geschichte zu verlieren.“ –KJ


Inioluwa Deborah RajiFoto: AYSIA STIEB; KI-Kunst von Sam Cannon

Als Inioluwa Deborah Raji begann in der KI und arbeitete an einem Projekt, das Verzerrungen bei Gesichtsanalysealgorithmen feststellte: Sie waren bei Frauen mit dunkler Haut am wenigsten genau. Die Ergebnisse veranlassten Amazon, IBM und Microsoft, den Verkauf von Gesichtserkennungstechnologie einzustellen. Jetzt arbeitet Raji mit der Mozilla Foundation an Open-Source-Tools, die Menschen dabei helfen, KI-Systeme auf Fehler wie Voreingenommenheit und Ungenauigkeit zu überprüfen – einschließlich großer Sprachmodelle. Laut Raji können die Tools Gemeinden, die durch KI geschädigt werden, dabei helfen, die Behauptungen mächtiger Technologieunternehmen in Frage zu stellen. „Die Menschen leugnen aktiv die Tatsache, dass Schäden passieren“, sagt sie, „deshalb ist das Sammeln von Beweisen für jeden Fortschritt auf diesem Gebiet von entscheidender Bedeutung.“ –KJ


Daniela AmodeiFoto: AYSIA STIEB; KI-Kunst von Sam Cannon

Daniela Amodei zuvor arbeitete an der KI-Richtlinie bei OpenAI und half dabei, den Grundstein für ChatGPT zu legen. Doch im Jahr 2021 verließen sie und mehrere andere das Unternehmen, um Anthropic zu gründen, ein gemeinnütziges Unternehmen, das seinen eigenen Ansatz zur KI-Sicherheit verfolgt. Der Chatbot des Startups, Claude, hat eine „Verfassung“, die sein Verhalten bestimmt und auf Grundsätzen basiert, die unter anderem aus der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen stammen. Amodei, Präsident und Mitbegründer von Anthropic, sagt, dass solche Ideen das heutige Fehlverhalten reduzieren und möglicherweise dazu beitragen werden, leistungsfähigere KI-Systeme der Zukunft einzuschränken: „Es könnte sehr wichtig sein, langfristig über die möglichen Auswirkungen dieser Technologie nachzudenken.“ —WK


Lila IbrahimFoto: Ayesha Kazim; KI-Kunst von Sam Cannon

Lila Ibrahim ist Chief Operating Officer bei Google DeepMind, einer Forschungseinheit, die für Googles generative KI-Projekte von zentraler Bedeutung ist. Für sie ist die Leitung eines der leistungsstärksten KI-Labore der Welt weniger ein Job als vielmehr eine moralische Berufung. Ibrahim kam vor fünf Jahren, nach fast zwei Jahrzehnten bei Intel, zu DeepMind, in der Hoffnung, die Entwicklung der KI auf eine Weise voranzutreiben, die der Gesellschaft zugute kommt. Eine ihrer Aufgaben besteht darin, einen internen Überprüfungsrat zu leiten, der darüber diskutiert, wie die Vorteile der DeepMind-Projekte erweitert und schlechte Ergebnisse verhindert werden können. „Ich dachte, wenn ich etwas von meiner Erfahrung und meinem Fachwissen einbringen könnte, um diese Technologie auf verantwortungsvollere Weise in die Welt zu bringen, dann würde es sich lohnen, hier zu sein“, sagt sie. – Morgan Meaker


Dieser Artikel erscheint in der Ausgabe Juli/August 2023. Abonniere jetzt.

Teilen Sie uns Ihre Meinung zu diesem Artikel mit. Senden Sie einen Brief an den Herausgeber unter [email protected].

source-114

Leave a Reply