KI-Gesetz: EU-Politiker legen Regeln für KI-Modelle fest und streiten sich über die Strafverfolgung


Nach 22 Stunden intensiver Verhandlungen erzielten die politischen Entscheidungsträger der EU eine vorläufige Einigung über die Regeln für die leistungsstärksten KI-Modelle, doch starke Meinungsverschiedenheiten im Kapitel Strafverfolgung zwangen die erschöpften Beamten, eine Pause zu fordern.

Das KI-Gesetz ist ein bahnbrechender Gesetzentwurf zur Regulierung künstlicher Intelligenz auf der Grundlage ihrer Fähigkeit, Schaden anzurichten. Das Dossier befindet sich in der letzten Phase des Gesetzgebungsprozesses, da EU-Kommission, Rat und Parlament in sogenannten Trilogen zusammenkommen, um die endgültigen Bestimmungen auszuarbeiten.

Der abschließende Trilog begann am Mittwoch (6. Dezember) und dauerte fast ununterbrochen einen ganzen Tag, bis für Freitagmorgen eine Pause anberaumt wurde. In diesem ersten Teil der Verhandlungen wurde eine Einigung zur Regulierung leistungsstarker KI-Modelle erzielt.

Umfang

Die Definition von KI in der Verordnung übernimmt alle wesentlichen Elemente der Definition der OECD, wiederholt sie jedoch nicht wörtlich.

Im Rahmen der vorläufigen Vereinbarung wird freie und Open-Source-Software vom Geltungsbereich der Verordnung ausgenommen, es sei denn, es handelt sich um ein Hochrisikosystem, verbotene Anwendungen oder eine KI-Lösung, bei der die Gefahr einer Manipulation besteht.

Auf dem Verhandlungstisch wird nach der Pause die Frage der nationalen Sicherheitsausnahme stehen, da die EU-Länder, allen voran Frankreich, eine weitreichende Ausnahmeregelung für alle KI-Systeme gefordert haben, die für militärische oder verteidigungstechnische Zwecke genutzt werden, auch für externe Auftragnehmer.

Ein weiterer zu diskutierender Punkt ist, ob die Verordnung auch für KI-Systeme gilt, die vor ihrem Inkrafttreten auf dem Markt waren, wenn sie eine wesentliche Änderung erfahren.

Foundation-Modelle

Laut einem von Euractiv eingesehenen Kompromissdokument wurde der abgestufte Ansatz mit einer automatischen Kategorisierung als „systemisch“ für Modelle beibehalten, die mit einer Rechenleistung über 10–25 trainiert wurden.

Ein neuer Anhang wird Kriterien bereitstellen, anhand derer das Amt für künstliche Intelligenz qualitative Benennungsentscheidungen von Amts wegen oder auf der Grundlage einer qualifizierten Warnung des wissenschaftlichen Gremiums treffen kann. Zu den Kriterien gehören die Anzahl der Geschäftsanwender sowie die Parameter des Modells und können je nach technologischer Entwicklung aktualisiert werden.

Für alle Modelle gelten Transparenzpflichten, einschließlich der Veröffentlichung einer ausreichend detaillierten Zusammenfassung der Trainingsdaten „unbeschadet der Geschäftsgeheimnisse“. KI-generierte Inhalte müssen sofort erkennbar sein.

Wichtig ist, dass nicht-systemische, vorab trainierte Modelle die horizontalen Verpflichtungen umgehen können, wenn sie „der Öffentlichkeit unter einer Lizenz zugänglich gemacht werden, die den Zugriff, die Nutzung, Änderung und Verbreitung des Modells und deren Parameter ermöglicht.“ […] öffentlich zugänglich gemacht werden“.

Für die Top-Tier-Modelle umfassen die Pflichten die Modellbewertung, die Bewertung und Verfolgung systemischer Risiken, den Cybersicherheitsschutz und die Berichterstattung über den Energieverbrauch des Modells.

Die Verhaltenskodizes sollen lediglich die verbindlichen Verpflichtungen ergänzen, bis harmonisierte technische Standards eingeführt sind, und die Kommission wird über delegierte Rechtsakte eingreifen können, wenn der Prozess zu lange dauert.

Führung

Innerhalb der Kommission wird ein KI-Büro eingerichtet, um die Bestimmungen des Stiftungsmodells durchzusetzen. Die EU-Institutionen werden eine gemeinsame Erklärung abgeben, dass das AI-Büro über eine eigene Haushaltslinie verfügen wird.

KI-Systeme werden von nationalen zuständigen Behörden überwacht, die im Europäischen Rat für künstliche Intelligenz zusammengefasst werden, um eine einheitliche Rechtsanwendung sicherzustellen.

Ein Beratungsforum wird das Feedback von Interessengruppen, auch aus der Zivilgesellschaft, einholen. Ein wissenschaftliches Gremium aus unabhängigen Experten wurde eingesetzt, um bei der Durchsetzung der Verordnung zu beraten, potenzielle systemische Risiken zu kennzeichnen und bei der Klassifizierung von KI-Modellen mit systemischen Risiken zu helfen.

Verbotene Praktiken

Das KI-Gesetz enthält eine Liste verbotener Anwendungen, da davon ausgegangen wird, dass sie ein inakzeptables Risiko darstellen. Die bisher bestätigten Verbote beziehen sich auf manipulative Techniken, Systeme, die Schwachstellen ausnutzen, Social Scoring und das wahllose Scrapen von Gesichtsbildern.

Allerdings hat das Europäische Parlament eine viel längere Liste verbotener Anwendungen vorgeschlagen und sieht sich einem heftigen Widerstand seitens des Rates gegenüber. Laut mehreren mit der Angelegenheit vertrauten Quellen wurden die Abgeordneten unter Druck gesetzt, ein Paketabkommen zu akzeptieren, das Euractiv zufolge der Position des Rates sehr nahe kommt.

Die Parlamentarier waren sich in dieser Frage uneinig: Die Mitte-Rechts-Europäische Volkspartei, Co-Berichterstatter Dragoș Tudorache und die Vorsitzende der sozialdemokratischen Fraktion, Iratxe García, drängten auf die Annahme des Abkommens.

Der Text des Rates will biometrische Kategorisierungssysteme verbieten, die auf sensiblen persönlichen Merkmalen wie Rasse, politische Meinungen und religiöse Überzeugungen basieren, „es sei denn, diese Merkmale stehen in direktem Zusammenhang mit einem bestimmten Verbrechen oder einer bestimmten Bedrohung“.

Als Beispiele wurden religiös oder politisch motivierte Straftaten genannt. Dennoch bestand die Präsidentschaft auch darauf, das Racial Profiling beizubehalten.

Während linksgerichtete Gesetzgeber Predictive Policing verbieten wollen, beschränkt der Ratsvorschlag das Verbot auf Ermittlungen, die ausschließlich auf der Vorhersage des Systems basieren, und nicht auf Fälle mit begründetem Verdacht auf Beteiligung an kriminellen Aktivitäten.

Das Parlament führte außerdem ein Verbot für Emotionserkennungssoftware am Arbeitsplatz, im Bildungswesen, bei der Strafverfolgung und bei der Migrationskontrolle ein. Der Rat ist nur in den ersten beiden Bereichen bereit, dies zu akzeptieren, außer aus medizinischen oder sicherheitstechnischen Gründen.

Ein weiteres kontroverses Thema ist der Einsatz der Remote Biometric Identification (RBI). Die Abgeordneten haben sich darauf geeinigt, ein vollständiges Verbot zugunsten enger Ausnahmen im Zusammenhang mit schwerer Kriminalität aufzuheben. Der Rat drängt darauf, den Strafverfolgungsbehörden mehr Handlungsspielraum zu geben und die nachträgliche Verwendung zu einem Hochrisikoanwendungsfall zu machen.

Eine weitere offene Frage betrifft die Frage, ob diese Verbote nur für Systeme gelten sollten, die innerhalb der Union verwendet werden, oder ob sie auch in der EU ansässige Unternehmen daran hindern sollten, diese verbotenen Anwendungen im Ausland zu verkaufen.

[Edited by Zoran Radosavljevic]

Lesen Sie mehr mit EURACTIV



source-127

Leave a Reply