Der EU-Gesetzgeber wird sich auf eine OECD-Definition für künstliche Intelligenz einigen


Das Europäische Parlament stimmte zu, einen kritischen Streitpunkt des KI-Gesetzes zu schließen, indem es die von der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) verwendete Definition übernahm. Auch die meisten anderen Definitionen wurden vereinbart, wobei neue Maßnahmen wie das Recht auf Erklärung ebenfalls auf dem Tisch der EU-Gesetzgeber liegen.

Am vergangenen Freitag (3. März) haben Vertreter der Fraktionen des Europäischen Parlaments, die am KI-Gesetz arbeiten, eine politische Einigung über einen der politisch heikelsten Teile des Dossiers erzielt, die eigentliche Definition der künstlichen Intelligenz, so zwei Beamte des Europäischen Parlaments.

Das KI-Gesetz ist ein Flaggschiff-Gesetzesvorschlag zur Regulierung dieser neuen Technologie auf der Grundlage ihrer Fähigkeit, Schaden zu verursachen. Was als künstliche Intelligenz definiert wird, wird von großer Bedeutung sein, da es auch den Geltungsbereich des KI-Regelwerks der EU definieren wird.

„’Künstliches Intelligenzsystem’ (KI-System) bezeichnet ein maschinenbasiertes System, das für den Betrieb mit unterschiedlichen Autonomiegraden ausgelegt ist und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle beeinflussen Umgebungen“, heißt es in dem von EURACTIV eingesehenen Text, der am Freitag diskutiert wurde.

KI-Definition

Laut einem bei dem Treffen anwesenden EU-Beamten bestand die Vereinbarung darin, den Begriff eines „maschinengestützten“ Systems aus dem Wortlaut zu streichen. Vom Büro der Ko-Berichterstatter, Brando Benifei und Dragoș Tudorache, wird nun ein überarbeiteter Text erwartet.

Die Definition überschneidet sich weitgehend mit der der OECD, einer internationalen Organisation, die oft als Club der reichen Länder angesehen wird.

In ähnlicher Weise fordert ein Zusatz zur Präambel des Textes, dass die KI-Definition „eng an die Arbeit internationaler Organisationen angepasst werden muss, die an künstlicher Intelligenz arbeiten, um Rechtssicherheit, Harmonisierung und breite Akzeptanz zu gewährleisten“.

Die internationale Anerkennung ist die Linie der konservativen Europäischen Volkspartei, die die Definition auch auf Systeme verengen wollte, die auf maschinellem Lernen basieren, während die linksgerichteten Gesetzgeber einen breiteren Ansatz forderten, der auf die automatisierte Entscheidungsfindung abzielt.

Darüber hinaus wurde eine Formulierung eingefügt, dass der Verweis auf Vorhersagen Inhalte umfasst, eine Maßnahme, die sicherstellen soll, dass generative KI-Modelle wie ChatGPT nicht durch das Raster der Verordnung fallen.

„Aber dann ist die nächste Frage natürlich, ob sie unter hohes Risiko und Kapitel 2 fallen [related obligations] oder auf eine große GPAI zählen können [General Purpose Artificial Intelligence] Befreiung“, sagte ein Parlamentsbeamter und hob eine umstrittene Frage hervor, mit der sich die Abgeordneten kaum zu befassen begonnen haben.

Der begleitende Text präzisiert auch, dass KI von einfacheren Softwaresystemen oder Programmieransätzen unterschieden werden sollte und dass die gesetzten Ziele in einem bestimmten Kontext von der Zweckbestimmung des KI-Systems abweichen können.

Bemerkenswerterweise stellt der Kompromiss fest, dass dort, wo ein KI-Modell in ein umfangreicheres System integriert wird, das vollständig von der KI-Komponente abhängt, das gesamte System als Teil einer einzigen KI-Lösung betrachtet wird.

Andere Definitionen

Am Montag (6. März) wurde bei einem technischen Treffen eine Einigung über die meisten anderen Definitionen der KI-Verordnung erzielt. In diesem Fall bezieht sich die bedeutendste Ergänzung zu den von EURACTIV gesehenen Kompromissänderungsanträgen auf die Definitionen von erheblichem Risiko, biometrischer Authentifizierung und Identifizierung.

„‚Erhebliches Risiko‘ bezeichnet ein Risiko, das hinsichtlich seiner Schwere, Intensität, Eintrittswahrscheinlichkeit, Dauer seiner Auswirkungen und seiner Fähigkeit, eine Einzelperson, mehrere Personen oder eine bestimmte Personengruppe zu betreffen, erheblich ist.“ das Dokument spezifiziert.

Fernbiometrische Verifizierungssysteme wurden als KI-Systeme definiert, die zur Verifizierung der Identität von Personen durch Abgleich ihrer biometrischen Daten mit einer Referenzdatenbank mit deren vorheriger Zustimmung verwendet werden. Das zeichnet sich durch ein Authentifizierungssystem aus, bei dem die Personen selbst darum bitten, authentifiziert zu werden.

Bei der biometrischen Kategorisierung, einer Praxis, die kürzlich in die Liste der verbotenen Anwendungsfälle aufgenommen wurde, wurde ein Hinweis auf die Ableitung persönlicher Merkmale und Attribute wie Geschlecht oder Gesundheit hinzugefügt.

Für die Profilerstellung durch Strafverfolgungsbehörden wurde ein Verweis auf die Strafverfolgungsrichtlinie eingeführt.

Eigenständige Artikel

Am Donnerstag ist ein weiteres technisches Treffen angesetzt, um sogenannte eigenständige Artikel zu diskutieren, Bestimmungen, die nicht unbedingt mit dem Rest des Gesetzentwurfs verbunden sind.

Ein neuer Artikel wurde mit dem Recht auf Erläuterung der individuellen Entscheidungsfindung eingeführt, der in Fällen gilt, in denen die KI eine Entscheidung mitteilt, die Rechtswirkungen oder ähnliche Wirkungen für jemanden hat.

Eine aussagekräftige Erklärung sollte die Rolle der KI-Lösung bei der Entscheidungsfindung, die verwendete Logik und die wichtigsten Parameter sowie die Eingabedaten enthalten. Um diese Bestimmung wirksam zu machen, werden Strafverfolgungs- und Justizbehörden daran gehindert, KI-Systeme zu verwenden, die durch Eigentumsrechte geschützt sind.

Weitere neue Maßnahmen umfassen Barrierefreiheitsanforderungen für KI-Anbieter und -Anwender, das Recht, nicht von nicht konformen KI-Modellen betroffen zu sein, und die Verpflichtung, dass risikoreiche KI-Systeme so konzipiert und entwickelt werden müssen, dass die Auswirkungen auf die Umwelt minimiert werden.

Artikel über allgemeine Grundsätze, die auf alle KI-Systeme anwendbar sind, und KI-Bildung wurden weitgehend beibehalten, da sie ursprünglich auf einem politischen Treffen Mitte Februar vorgeschlagen wurden, aber keine Zeit blieb, sie zu diskutieren.

[Edited by Zoran Radosavljevic]



source-127

Leave a Reply