Die Abgeordneten erörtern den regulatorischen Dialog über die Einstufung von KI mit hohem Risiko


Der EU-Gesetzgeber soll im Rahmen des neuen KI-Gesetzes darüber beraten, wie Systeme der künstlichen Intelligenz (KI) hinsichtlich ihrer tatsächlichen oder potenziellen Risiken einzustufen sind.

Das KI-Gesetz ist ein Vorzeige-Vorschlag der EU zur Regulierung der KI-Technologie auf der Grundlage ihrer potenziellen Risiken. Kernstück des Vorschlags ist die Hochrisikokategorie, die strengere Anforderungen an Robustheit und Risikomanagement seitens der KI-Entwickler impliziert.

Die an dem Dossier beteiligten Abgeordneten werden diesen kritischen Aspekt des Vorschlags bei einem politischen Treffen am Mittwoch (1. Februar) erörtern. Laut einer Agenda, die EURACTIV vorliegt, wird die Bestimmung, die den KI-Risikoklassifizierungsprozess definiert, im Mittelpunkt der Debatte stehen.

Auf der Tagesordnung steht ein möglicher Kompromiss der Ko-Berichterstatter Brando Benifei und Dragos Tudorache. Die führenden Abgeordneten haben bereits letzte Woche einen Kompromisstext vorgeschlagen, aber die neue Version enthält bedeutende Änderungen, die den Weg zu einer gemeinsamen Basis ebnen könnten.

Auf derselben Sitzung soll der Gesetzgeber die Kompromisse zu den Anforderungen an risikoreiche KI-Systeme und Maßnahmen zur Innovationsförderung formell billigen.

Einstufung als hohes Risiko

Der ursprüngliche Entwurf der Verordnung klassifizierte KI mit hohem Risiko auf der Grundlage einer Liste kritischer Bereiche, in denen die Technologie angewendet wird, darunter Sektoren wie die Strafverfolgung oder das Gesundheitswesen. In dem Kompromiss von letzter Woche schlugen die Ko-Berichterstatter vor, den Prozess weniger automatisch zu gestalten.

Mit anderen Worten, die KI-Entwickler würden Raum erhalten, um selbst zu beurteilen, ob ihr System ein „erhebliches“ Risiko für die Gesundheit, Sicherheit oder Grundrechte von Menschen darstellt. Das Wort signifikant wurde zusammen mit einer Definition aus dem vorherigen Text hinzugefügt.

„Erhebliches Risiko“ ist ein Risiko einer Schädigung von Gesundheit und Sicherheit, Grundrechten potenziell betroffener natürlicher Personen, das hinsichtlich seiner Schwere, Intensität, Eintrittswahrscheinlichkeit/Eintrittswahrscheinlichkeit, Dauer seiner Auswirkungen und seiner Fähigkeit, sich zu auswirken, erheblich ist Einzelperson, mehrere Personen oder eine bestimmte Personengruppe betreffen“, heißt es in dem Text.

Wenn die KI-Entwickler der Ansicht sind, dass kein erhebliches Risiko besteht, müssten sie eine Ausnahme bei der nationalen Aufsichtsbehörde des jeweiligen Landes oder dem EU-Büro beantragen, wenn das System auf mehr als einem europäischen Markt eingeführt wird.

Die zuständige Behörde tritt dann in einen Regulierungsdialog mit dem Anbieter ein und soll innerhalb von drei Monaten eine begründete Entscheidung treffen.

Jedenfalls würde das KI-System immer dann als hohes Risiko eingestuft, wenn es sich um eine Sicherheitskomponente von Produkten handelt, die unter die sektorspezifischen EU-Rechtsvorschriften fallen, die eine Konformitätsbewertung durch Dritte erfordern. Zum Beispiel, wenn das KI-System verwendet wird, um die Sicherheit eines Spielzeugs oder Aufzugs zu gewährleisten.

Bemerkenswerterweise wurde die Definition der Sicherheitskomponente dahingehend geändert, dass sie sich nur auf Risiken im Zusammenhang mit dem potenziellen Ausfall oder der Fehlfunktion des KI-Systems für die Gesundheit und Sicherheit von Personen bezieht, während die Sicherheit von Eigentum ausgeschlossen wurde.

Änderung der Risikoliste

Die Liste der kritischen Bereiche für KI-Anwendungen mit hohem Risiko wurde in Anhang III aufgenommen, um die Europäische Kommission zu ermächtigen, sie auf der Grundlage von technologischen und Marktentwicklungen zu aktualisieren. Unter jedem Hochrisikobereich gibt es spezifische Anwendungsfälle, zum Beispiel Systeme, die verwendet werden, um Studenten an Universitäten für den Bildungssektor aufzunehmen.

Für den jüngsten Kompromiss sollte die EU-Exekutive die Befugnis erhalten, die Liste der Bereiche und Anwendungsfälle durch delegierte Rechtsakte zu ergänzen oder zu ändern. Ebenso könnte die Kommission Anwendungsfälle von der Liste streichen, aber keine kritischen Bereiche, wenn sie der Meinung sind, dass sie nicht mehr zutreffen.

[Edited by Alice Taylor]



source-127

Leave a Reply