Deutschland könnte der Verbündete der Abgeordneten in den Verhandlungen über das KI-Gesetz werden


Interinstitutionelle Verhandlungen über das KI-Gesetz werden noch in diesem Jahr erwartet, und während der EU-Rat seine Position erreicht hat, hat Deutschland Vorbehalte in bestimmten Punkten, die es der Position des Europäischen Parlaments näher bringen als die anderer Mitgliedstaaten.

Am 6. Dezember bekräftigten die beim Telekommunikationsrat versammelten europäischen Minister ihre Unterstützung für den allgemeinen Ansatz zum KI-Gesetz, einem wegweisenden Gesetz zur Regulierung der künstlichen Intelligenz auf der Grundlage ihres Schadenspotenzials.

Der deutsche Bundesminister für Digitales, Volker Wissing, begrüßte den Kompromiss und stellte fest, dass „es noch Raum für Verbesserungen gibt“.

Welche Punkte Berlin während der Triloge weiter vorantreiben wird, könnte ein entscheidender Faktor während der Verhandlungen werden, da Europas größtes Land den EU-Gesetzgebern helfen könnte, das Gleichgewicht im Rat zu schwingen.

Biometrische Erkennung

Deutschland befürwortet ein vollständiges Verbot der biometrischen Erkennungstechnologie, wie bereits in der erwähnt Koalitionsvertrag die drei Regierungsparteien im Jahr 2021 unterzeichnet haben. Dies ist auch für die Ko-Berichterstatter des Parlaments ein grundlegender Punkt.

Laut schriftlichen Kommentaren, die im Oktober eingereicht und EURACTIV vorliegen, ist Berlin jedoch nur dafür, die biometrische Echtzeit-Identifizierung im öffentlichen Raum zu verbieten, aber eine Ex-post-Identifizierung zuzulassen.

Gleichzeitig behielten sich die Deutschen vor, die Angelegenheit im weiteren Verlauf der Diskussion ausführlicher zu kommentieren.

Darüber hinaus wollte Deutschland die Definition biometrischer Daten mit der in der EU-Datenschutz-Grundverordnung enthaltenen vergleichen, um terminologische Divergenzen zu vermeiden und biometrische Kategorisierungssysteme als risikoreich einzustufen.

Predictive Policing und Emotionserkennung

Ein weiteres umstrittenes Thema ist der Einsatz von KI-Systemen in Strafverfahren. In derselben Kommentarreihe drängte Berlin darauf, jede KI-Anwendung zu verbieten, die menschliche Richter bei der Einschätzung des Risikos einer Person, eine Straftat zu begehen oder zu wiederholen, durch die Strafverfolgungsbehörden ersetzt.

Diese KI-Anwendungen wurden in der endgültigen Einigung des Rates lediglich in die Hochrisikokategorien aufgenommen, während es im Europäischen Parlament offenbar starke Unterstützung für ein vollständiges Verbot dieser Praktiken gibt.

In ähnlicher Weise wollten die Deutschen KI-Systeme, die von Behörden als Polygraphen, auch als Lügendetektoren bekannt, oder andere Tools zur Emotionserkennung verwendet werden, in die Liste der verbotenen Praktiken aufnehmen. Sie baten auch darum, alle anderen Emotionserkennungssysteme als risikoreich einzustufen.

Führende Europaabgeordnete heben den Vorhang für Entwürfe von KI-Regeln

Die beiden Ko-Berichterstatter des Europäischen Parlaments haben am Montag (11. April) den Berichtsentwurf zur künstlichen Intelligenz (KI) fertiggestellt und dargelegt, wo sie Gemeinsamkeiten gefunden haben. Die umstrittensten Themen wurden weiter nach unten verschoben.

Strafverfolgung

Der Text des EU-Rates führte mehrere bedeutende Sonderregelungen für die Strafverfolgung ein. Während der deutsche Ansatz im Allgemeinen darin bestand, strengere Sicherheitsvorkehrungen für die von Strafverfolgungsbehörden eingesetzte KI zu treffen.

Berlin hat sich aber auch dafür eingesetzt, diese Anträge vom Vier-Augen-Prinzip auszunehmen, das die menschliche Aufsicht durch mindestens zwei Personen erfordert, da in vielen bestehenden Fällen nur ein Beamter die Entscheidung treffen muss.

Eine solche Inkonsistenz ergibt sich wahrscheinlich daraus, dass die Liste der Kommentare aus verschiedenen Ministerien stammt, die von verschiedenen Koalitionsmitgliedern geführt werden. Es ist nicht immer ersichtlich, welche Auffassung des Ministeriums zu einem bestimmten Thema vorherrschte, was die deutsche Position für die EU-Politiker schwer interpretierbar macht.

Während der Verhandlungen forderte die Bundesregierung, die KI-Bestimmungen zu Sicherheit und Migration in einem separaten Vorschlag zu entpacken. Bisher gab es wenig Interesse an einem solchen Ansatz, der einen separaten allgemeinen Gesetzesvorschlag für allgemeine Zwecke erfordern würde.

KI am Arbeitsplatz

Die Bundesregierung setzte sich auch dafür ein, jedes KI-System zu verbieten, das dazu dient, die Leistung und das Verhalten von Mitarbeitern ohne bestimmten Grund systematisch zu überwachen, was zu einem psychischen Druck führt, der sie daran hindert, sich frei zu verhalten.

„Diese KI-Systeme können die Leistung und das Verhalten von Mitarbeitern genau nachverfolgen, Bewertungen zur Kündigungswahrscheinlichkeit oder Produktivität eines Mitarbeiters generieren, anzeigen, welche Mitarbeiter möglicherweise negative Stimmungen verbreiten, und schließlich umfassende Profile von Mitarbeitern erstellen“, heißt es in dem Kommentar.

Deutschland erhielt in der allgemeinen Ausrichtung einen Hinweis darauf, dass es den Mitgliedstaaten freisteht, auf nationaler Ebene Maßnahmen zu ergreifen, um spezifischere Regeln für KI am Arbeitsplatz aufzustellen. Ähnliche Formulierungen wurden zum Schutz Minderjähriger eingeführt.

Einstufung als hohes Risiko

Der tschechischen Ratspräsidentschaft ist es gelungen, der Hochrisikoklassifizierung eine zusätzliche Ebene hinzuzufügen, was bedeutet, dass KI nicht nur aufgrund ihres Anwendungsbereichs als erhebliches Risiko angesehen wird, sondern auch, wenn sie zur Gestaltung des Entscheidungsprozesses beiträgt.

Die Deutschen lehnten diesen Ansatz ab und betonten, dass KI-Anbieter die Anwendungsfälle nicht vorhersehen könnten. Sie weisen auch auf das Fehlen einer Verpflichtung für Anbieter von Systemen ohne hohes Risiko hin, zu erklären, wie sie zu einer solchen Einstufung gelangt sind.

Berlin machte weitere Vorschläge zu KI-Anwendungen, die als risikoreich einzustufen sind, nämlich emissionsintensive Industrien, Abwasserentsorgung, Sicherheitskomponenten für kritische digitale Infrastrukturen und öffentliche Warnsysteme für extreme Wetterereignisse.

Weitere Vorschläge für die Hochrisikoliste umfassen KI-Systeme, die zur Zuweisung von Sozialwohnungen, zum Inkasso von Schulden und zur Bereitstellung personalisierter Preise verwendet werden, da all diese Anwendungen gefährdete Kategorien benachteiligen könnten.



source-127

Leave a Reply