KI braucht dringend globale Aufsicht


Jedes Mal, wenn Sie Posten Sie ein Foto, antworten Sie in sozialen Medien, erstellen Sie eine Website oder senden Sie möglicherweise sogar eine E-Mail. Ihre Daten werden gekratzt, gespeichert und zum Trainieren der generativen KI-Technologie verwendet, die Text, Audio, Video und Bilder mit nur wenigen Worten erstellen kann . Das hat reale Konsequenzen: OpenAI-Forscher studieren Die Auswirkungen ihrer Sprachmodelle auf den Arbeitsmarkt schätzten, dass etwa 80 Prozent der US-Belegschaft mindestens 10 Prozent ihrer Arbeitsaufgaben von der Einführung großer Sprachmodelle (LLMs) wie ChatGPT betroffen sein könnten, während etwa 19 Prozent der Arbeitnehmer dies sehen könnten mindestens die Hälfte ihrer Aufgaben betroffen. Auch bei der Imagegenerierung sehen wir eine unmittelbare Arbeitsmarktverschiebung. Mit anderen Worten, die von Ihnen erstellten Daten können Sie arbeitslos machen.

Wenn ein Unternehmen seine Technologie auf einer öffentlichen Ressource – dem Internet – aufbaut, ist es vernünftig zu sagen, dass diese Technologie für alle verfügbar und offen sein sollte. Kritiker haben jedoch festgestellt, dass GPT-4 fehlte alle klaren Informationen oder Spezifikationen, die es jedem außerhalb der Organisation ermöglichen würden, jeden Aspekt des Modells zu replizieren, zu testen oder zu verifizieren. Einige dieser Unternehmen haben enorme Summen von anderen großen Unternehmen erhalten, um kommerzielle Produkte zu entwickeln. Für einige in der KI-Community ist dies ein gefährliches Zeichen dafür, dass diese Unternehmen Gewinne anstreben, die über dem öffentlichen Nutzen liegen.

Code-Transparenz allein wird wahrscheinlich nicht sicherstellen, dass diese generativen KI-Modelle dem Gemeinwohl dienen. Es gibt wenig vorstellbaren unmittelbaren Nutzen für einen Journalisten, politischen Analysten oder Buchhalter (laut der OpenAI-Studie alles Berufe mit hoher Exposition), wenn die Daten, die einem LLM zugrunde liegen, verfügbar sind. Wir haben zunehmend Gesetze, wie den Digital Services Act, die von einigen dieser Unternehmen verlangen würden, ihren Code und ihre Daten für die Überprüfung durch Experten zu öffnen. Und Open-Source-Code kann manchmal böswillige Akteure aktivieren, sodass Hacker Sicherheitsvorkehrungen unterlaufen können, die Unternehmen einbauen. Transparenz ist ein lobenswertes Ziel, aber das allein wird nicht sicherstellen, dass generative KI zur Verbesserung der Gesellschaft eingesetzt wird.

Um wirklich öffentlichen Nutzen zu schaffen, brauchen wir Rechenschaftsmechanismen. Die Welt braucht ein globales Governance-Gremium für generative KI, um diese sozialen, wirtschaftlichen und politischen Störungen zu lösen, die über das hinausgehen, wozu jede einzelne Regierung in der Lage ist, was jede akademische oder zivilgesellschaftliche Gruppe umsetzen kann oder jedes Unternehmen bereit oder in der Lage ist, dies zu tun. Es gibt bereits Präzedenzfälle für die globale Zusammenarbeit von Unternehmen und Ländern, um sich selbst für technologische Ergebnisse verantwortlich zu machen. Wir haben Beispiele für unabhängige, gut finanzierte Expertengruppen und Organisationen, die Entscheidungen im Sinne des Gemeinwohls treffen können. Eine Entität wie diese hat die Aufgabe, an Vorteile für die Menschheit zu denken. Lassen Sie uns auf diesen Ideen aufbauen, um die grundlegenden Probleme anzugehen, die die generative KI bereits auftaucht.

In der Ära der nuklearen Proliferation nach dem Zweiten Weltkrieg zum Beispiel gab es eine glaubwürdige und erhebliche Angst vor abtrünnigen Nukleartechnologien. Der weit verbreitete Glaube, dass die Gesellschaft kollektiv handeln müsse, um globale Katastrophen zu vermeiden, spiegelt viele der heutigen Diskussionen über generative KI-Modelle wider. Als Reaktion darauf kamen Länder auf der ganzen Welt unter der Führung der USA und unter der Führung der Vereinten Nationen zusammen, um die Internationale Atomenergiebehörde zu gründen (IAEA), ein unabhängiges Gremium ohne Regierungs- und Unternehmenszugehörigkeit, das Lösungen für die weitreichenden Auswirkungen und scheinbar unendlichen Möglichkeiten der Nukleartechnologien bieten würde. Es ist in drei Hauptbereichen tätig: Kernenergie, nukleare Sicherheit und Sicherung sowie Sicherungsmaßnahmen. Zum Beispiel nach dem Fukushima Katastrophe im Jahr 2011 stellte es wichtige Ressourcen, Schulungen, Tests und Wirkungsberichte bereit und trug dazu bei, die kontinuierliche nukleare Sicherheit zu gewährleisten. Die Agentur ist jedoch begrenzt: Sie ist auf die freiwillige Einhaltung ihrer Standards und Richtlinien durch die Mitgliedstaaten und auf ihre Zusammenarbeit und Unterstützung angewiesen, um ihren Auftrag zu erfüllen.

In der Technik, Facebook Aufsichtsgremium ist ein funktionierender Versuch, Transparenz mit Rechenschaftspflicht in Einklang zu bringen. Die Vorstandsmitglieder sind eine interdisziplinäre globale Gruppe, und ihre Urteile, wie z umkippen eine Entscheidung von Facebook, einen Beitrag zu entfernen, der sexuelle Belästigung in Indien darstellt, bindend. Auch dieses Modell ist nicht perfekt; Es gibt Vorwürfe der Unternehmenserfassung, da das Gremium ausschließlich von Meta finanziert wird, nur Fälle anhören kann, auf die Facebook selbst verweist, und sich auf das Entfernen von Inhalten beschränkt, anstatt sich mit systemischen Themen wie Algorithmen oder Moderationsrichtlinien zu befassen.

source-114

Leave a Reply