Das vielgepriesene KI-Gesetz der EU wurde vom EU-Parlament verabschiedet – doch es bestehen weiterhin gravierende Menschenrechtslücken im Gesetz


Das KI-Gesetz hat lange auf sich warten lassen. Obwohl es sich um ein bahnbrechendes Gesetz handelt, erfüllt es leider nicht die Anforderungen an den Schutz der Menschenrechte, schreibt Laura Lazaro Cabrera.

Laura Lazaro Cabrera ist Beraterin und Direktorin des Equity and Data Program am Center for Democracy & Technology (CDT).

Es lässt sich nicht leugnen, dass dies sowohl in der EU als auch weltweit ein historischer Moment ist: Die EU hat sich auf ein Gesetz zur Regelung künstlicher Intelligenz geeinigt. Es ist das erste seiner Art weltweit. Es handelt sich um ein lang erwartetes, hart umkämpftes und langwieriges Gesetz. Aber für CDT Europe ist es eine gemischte Sache, wenn es um den Schutz der Menschenrechte geht – schließlich eines seiner Hauptziele.

Die Bedeutung des KI-Gesetzes ist klar: Es wird zum Maßstab für die KI-Regulierung weltweit in einem Wettlauf gegen die Zeit werden, da sich die Gesetzgeber mit der rasanten Entwicklung einer Technologie auseinandersetzen, die weitreichende Auswirkungen auf unsere grundlegenden Menschenrechte hat.

KI wird zunehmend in Bereichen eingesetzt, die für das Leben der Menschen von großer Bedeutung sind: bei der Auswahl der Schule, auf die Ihr Kind gehen darf, bei der Unterstützung von Arbeitgebern bei der Kandidatenauswahl, bei der Bearbeitung von Asylfällen … und so weiter.

Es ist dringend eine Gesetzgebung erforderlich, und es steht extrem viel auf dem Spiel. Wenn der Einsatz von KI den Kern wichtiger Menschenrechte wie das Recht auf Privatsphäre, Versammlungs- und Meinungsfreiheit berührt, mussten die Gesetzgeber eine schwierige Balance finden.

Für diejenigen wie CDT Europe, die sich energisch dafür eingesetzt haben, dass die Menschenrechte im Mittelpunkt des KI-Gesetzes stehen, hatten wir große Hoffnungen, aber der endgültige Text hat in den letzten Verhandlungen zu viel verraten.

Wir können zwar zu Recht feiern, dass Privatsphäre und andere Grundrechte im Gesetz im Vordergrund stehen, es gibt jedoch zu viele Ausnahmen, die dazu führen könnten, dass schädliche KI ernsthafte Risiken für Bürger und oft auch für Menschen in gefährdeten Situationen darstellt.

Ein eklatanter Fehler besteht unserer Ansicht nach darin, dass das Gesetz zwar erhebliche Einschränkungen für den Einsatz von KI durch Strafverfolgungsbehörden vorsieht, der Gesetzgeber jedoch unsere Warnung (und die anderer Organisationen der Zivilgesellschaft), die ein vollständiges Verbot der ungezielten Gesichtserkennung fordert, nicht beachtet hat durch die Strafverfolgung.

Dies trifft den Kern dessen, in welcher Art von Gesellschaft wir leben wollen. Die Beschränkungen für den Einsatz der Live-Gesichtserkennung gelten nur für den Einsatz durch Strafverfolgungsbehörden in öffentlich zugänglichen Räumen und schließen ausdrücklich Grenzen aus, die bekanntermaßen Orte von Menschenrechtsverletzungen sind.

Dies ist ein Gesetz, das die grundlegendsten Menschenrechte der Menschen schützen soll, und doch scheint es durch seine Ausnahmen die schändlichste Art von KI zuzulassen, eine, die in das Recht auf Privatsphäre der oft am stärksten marginalisierten und gefährdeten Gruppen eingreift.

Wie immer steckt der Teufel im Detail und die vielen Ausnahmen von den eigentlich lobenswerten Bestimmungen des Gesetzes drohen seinen Zweck zu untergraben. Eine offensichtliche solche Ausnahme betrifft die nationale Sicherheit.

Der Spielraum für Missbrauch ist hier erheblich: Man könnte sich leicht ein Szenario vorstellen, in dem die Strafverfolgungsbehörden behaupten, dass der Einsatz von KI im Interesse der nationalen Sicherheit liege, und daher ausgenommen sei. Ebenso gibt es eine Ausnahme vom Verbot der Emotionserkennung im Gesetz, die nur für Bildung und den Arbeitsplatz gilt und den Einsatz der Emotionserkennung an anderer Stelle, beispielsweise an der Grenze, ermöglicht.

Ein großer „Gewinn“ für die Zivilgesellschaft waren die Folgenabschätzungen zu Grundrechten (FRIAs) – es wird eine Verpflichtung für KI-Einsätze mit hohem Risiko geben, diese Bewertungen durchzuführen. Aber – und das ist ein großes „Aber“ – die FRIAs beziehen nicht immer den privaten Sektor ein, sodass nur diejenigen, die KI im öffentlichen Sektor einsetzen, und eine kleine Untergruppe privater Unternehmen das Risiko für die Menschenrechte abschätzen müssen – viele Menschen bleiben ungeschützt .

Nach dem KI-Gesetz wäre ein Unternehmen beispielsweise nicht verpflichtet, eine FRIA durchzuführen, wenn es in einem seiner Lagerhäuser KI einsetzt, um das Arbeitstempo zu erhöhen, selbst wenn dies Risiken für die Arbeitnehmer birgt.

Darüber hinaus ist nicht wirklich klar, ob diese FRIA mehr als eine Übung zum Ankreuzen von Kästchen sein werden: Nichts im Gesetz macht den Einsatz einer Hochrisiko-KI davon abhängig, dass die FRIA überprüft wird. Sobald die FRIA durchgeführt und darüber berichtet wird, scheint sie also keinen nennenswerten Einfluss auf die Einführung einer Hochrisiko-KI zu haben. Es ist offensichtlich, warum die Befürchtungen von Menschenrechtsaktivisten vor schädlicher KI durch dieses Gesetz nicht zerstreut werden.

Während sich der Staub legt und sich alle der Umsetzung des Gesetzes zuwenden, stehen wir vor der schwierigen Aufgabe, ein komplexes, langwieriges und beispielloses Gesetz auszupacken. Der Schlüssel zum Erfolg – ​​aber auch zur Überwindung seiner Fallstricke – wird für uns in der engen Abstimmung zwischen den Gesetzesvollziehern und Experten sowie der Zivilgesellschaft liegen. Nur so kann gewährleistet werden, dass es in der Praxis im Einklang mit den von ihm formulierten Zielen steht: dem Schutz der Grundrechte, der Demokratie und der Rechtsstaatlichkeit.



source-127

Leave a Reply