Chef von Amnesty International sagt, KI-Innovation vs. Regulierung sei „falsche Dichotomie“

Der Generalsekretär von Amnesty International, Anges Callamard, veröffentlichte eine Stellungnahme am 27. November als Reaktion darauf, dass drei Mitgliedstaaten der Europäischen Union die Regulierung von Modellen für künstliche Intelligenz (KI) zurückdrängen.

Frankreich, Deutschland und Italien erreichten einen Vereinbarung Dazu gehörte auch, keine derart strengen Vorschriften für Basismodelle der KI zu übernehmen, die ein zentraler Bestandteil des bevorstehenden EU-KI-Gesetzes der EU sind.

Dies geschah, nachdem die EU mehrere Petitionen von Akteuren der Technologiebranche erhalten hatte, in denen sie die Regulierungsbehörden aufforderten, die aufstrebende Branche nicht zu stark zu regulieren.

Callamard sagte jedoch, die Region habe die Möglichkeit, mit einer strengen Regulierung der KI eine „internationale Führungsrolle“ zu übernehmen, und die Mitgliedstaaten „dürfen das KI-Gesetz nicht untergraben, indem sie sich den Behauptungen der Technologieindustrie beugen, dass die Verabschiedung des KI-Gesetzes zu harter Hand führen würde.“ Regulierung, die Innovationen bremsen würde.“

„Wir dürfen nicht vergessen, dass ‚Innovation versus Regulierung‘ eine falsche Dichotomie ist, mit der Technologieunternehmen seit Jahren hausieren gehen, um sich einer sinnvollen Rechenschaftspflicht und verbindlichen Regulierung zu entziehen.“

Sie sagte, diese Rhetorik aus der Technologiebranche unterstreiche die „Machtkonzentration“ einer kleinen Gruppe von Technologieunternehmen, die für das „KI-Regelwerk“ verantwortlich sein wollen.

Verwandt: Das US-amerikanische Überwachungs- und Gesichtserkennungsunternehmen Clearview AI gewinnt die DSGVO-Beschwerde vor einem britischen Gericht

Amnesty International ist Mitglied einer Koalition zivilgesellschaftlicher Organisationen unter der Leitung des European Digital Rights Network, die sich für EU-KI-Gesetze einsetzen, bei denen der Schutz der Menschenrechte im Vordergrund steht.

Callamard sagte, Menschenrechtsverletzungen durch KI seien „gut dokumentiert“ und „Staaten nutzen unregulierte KI-Systeme, um Sozialhilfeansprüche zu bewerten, öffentliche Räume zu überwachen oder die Wahrscheinlichkeit einer Straftat zu bestimmen.“

„Es ist unbedingt erforderlich, dass Frankreich, Deutschland und Italien damit aufhören, den Verhandlungsprozess zu verzögern, und dass sich die EU-Gesetzgeber darauf konzentrieren, sicherzustellen, dass wichtige Menschenrechtsschutzmaßnahmen vor dem Ende des aktuellen EU-Mandats im Jahr 2024 gesetzlich verankert werden.“

Kürzlich waren Frankreich, Deutschland und Italien auch Teil einer neuen Reihe von Richtlinien, die von 15 Ländern und großen Technologieunternehmen, darunter OpenAI und Anthropic, entwickelt wurden und Cybersicherheitspraktiken für KI-Entwickler beim Entwerfen, Entwickeln, Starten und Überwachen von KI-Modellen vorschlagen.

Zeitschrift: AI Eye: Erzielen Sie bessere Ergebnisse, wenn Sie nett zu ChatGPT sind, der KI-Debatte über gefälschte Kinderpornos und den KI-Rezensionen von Amazon