KI-Gesetz: Abgeordnete wollen Grundrechtsprüfungen, Pflichten für Risikonutzer


Die Ko-Berichterstatter des Europäischen Parlaments verteilten neue Kompromissänderungsanträge zum Gesetz über künstliche Intelligenz (KI), in denen vorgeschlagen wurde, wie Folgenabschätzungen zu den Grundrechten und andere Verpflichtungen für Benutzer von Systemen mit hohem Risiko durchgeführt werden können.

Der neue Kompromiss wurde am Montag (9. Januar) verteilt, um am Mittwoch bei einem technischen Treffen diskutiert zu werden. Es ist eine der letzten Chargen, die die erste Überprüfung des KI-Gesetzes abgeschlossen hat, eines wegweisenden Gesetzesvorschlags zur Regulierung der Technologie auf der Grundlage ihres Schadenspotenzials.

Folgenabschätzung zu den Grundrechten

Die Ko-Berichterstatter wollen eine Verpflichtung für alle Nutzer von KI-Systemen mit hohem Risiko, sowohl öffentliche als auch private Stellen, aufnehmen, eine Folgenabschätzung für die Grundrechte durchzuführen, wobei sie mehrere Mindestelemente auflisten, die die Bewertung enthalten sollte.

Insbesondere müssten die KI-Anwender den beabsichtigten Zweck, den räumlichen und zeitlichen Umfang der Nutzung, betroffene Personen- und Gruppengruppen, spezifische Risiken für Randgruppen und die absehbaren Umweltauswirkungen, beispielsweise beim Energieverbrauch, berücksichtigen.

Weitere Elemente sind die Einhaltung von EU- und nationalen Rechtsvorschriften und Grundrechtsgesetzen, die potenziellen negativen Auswirkungen auf die Werte der EU und für öffentliche Behörden Überlegungen zu Demokratie, Rechtsstaatlichkeit und der Zuweisung öffentlicher Mittel.

Für die führenden Abgeordneten sollten die Nutzer einen detaillierten Plan entwerfen, wie die direkten oder indirekten negativen Auswirkungen auf die Grundrechte gemildert werden. Andernfalls müssten sie den KI-Anbieter und die zuständige nationale Behörde unverzüglich informieren.

„Im Zuge der Folgenabschätzung muss der Nutzer die zuständigen nationalen Behörden und relevanten Interessengruppen benachrichtigen und Vertreter der Personen oder Personengruppen einbeziehen, die vernünftigerweise vorhersehbar von dem Hochrisiko-KI-System betroffen sind“, heißt es in dem Kompromiss.

Beispiele für Vertreter, die Beiträge für die Folgenabschätzung leisten würden, sind Gleichbehandlungsstellen, Verbraucherschutzbehörden, Sozialpartner und Datenschutzbehörden. Die Nutzer sollten ihnen sechs Wochen Zeit geben, um solche Eingaben zu machen, und wenn sie eine öffentliche Einrichtung sind, sollten sie das Ergebnis der Folgenabschätzung als Teil der Registrierung im EU-Register veröffentlichen.

Pflichten für Benutzer von Systemen mit hohem Risiko

Die Ko-Berichterstatter haben einige wichtige Ergänzungen zu den Verpflichtungen für Nutzer von KI-Systemen vorgenommen, die als hochgefährdet gelten, um beispielsweise sicherzustellen, dass sie über angemessene Robustheits- und Cybersicherheitsmaßnahmen verfügen und dass diese Maßnahmen regelmäßig aktualisiert werden.

Darüber hinaus müssten die Benutzer, „soweit der Benutzer die Kontrolle über das KI-System mit hohem Risiko ausübt“, die Risiken im Zusammenhang mit den potenziellen nachteiligen Auswirkungen der Verwendung und den entsprechenden Minderungsmaßnahmen bewerten.

Wenn den Benutzern bekannt wird, dass die Verwendung des Hochrisikosystems gemäß den Anweisungen ein Risiko für die Gesundheit, die Sicherheit oder den Schutz der Grundrechte darstellt, müssten sie den KI-Anbieter oder -Vertreiber und die zuständige nationale Behörde unverzüglich informieren.

Der Kompromiss sieht vor, dass die Nutzer in allen von der KI-Verordnung geforderten Fällen eine menschliche Aufsicht sicherstellen und sicherstellen müssten, dass die Verantwortlichen über die notwendigen Kompetenzen, Schulungen und Ressourcen für eine angemessene Aufsicht verfügen.

KI-Benutzer mit hohem Risiko müssten auch die vom System generierten automatischen Protokolle führen, um die Einhaltung des KI-Gesetzes sicherzustellen, alle vorhersehbaren Fehlfunktionen oder Vorfälle zu prüfen und die Systeme während ihres gesamten Lebenszyklus zu überwachen.

Bevor ein KI-System mit hohem Risiko an einem Arbeitsplatz implementiert wird, sollten sich die Benutzer mit Arbeitnehmervertretern beraten und die Arbeitnehmer informieren und deren Zustimmung einholen.

Darüber hinaus müssten die Nutzer die von dem Hochrisikosystem betroffenen Personen insbesondere über die Art der verwendeten KI, ihren Verwendungszweck und die Art der von ihr getroffenen Entscheidung informieren.

Es wurde auch ein Absatz hinzugefügt, um generative KI anzusprechen, immer beliebtere Modelle wie ChatGPT, die Inhalte basierend auf menschlichen Eingaben generieren können. Die Benutzer solcher Systeme müssten offenlegen, dass dieser Text von KI generiert oder manipuliert wurde, es sei denn, der Inhalt wurde einer menschlichen Überprüfung unterzogen und sein Herausgeber haftet oder trägt die redaktionelle Verantwortung.

KI-Anbieter sollten eng mit den Nutzern zusammenarbeiten, um diesen Verpflichtungen nachzukommen. Die Benutzer wiederum müssten bei allen Maßnahmen im Zusammenhang mit Systemen mit hohem Risiko mit den nationalen Behörden zusammenarbeiten.

Verpflichtungen für Händler, Importeure und Benutzer

Händler, Importeure, Benutzer und alle anderen Dritten würden unter bestimmten Umständen, die die führenden Abgeordneten stark bearbeitet haben, als Anbieter eines Hochrisikosystems mit relativen Verpflichtungen angesehen.

Zum Beispiel, wenn sie den beabsichtigten Zweck ändern oder eine wesentliche Änderung vornehmen, die eine KI zu einer Anwendung mit hohem Risiko macht.

Eine weitere Bedingung ist, wenn das Hochrisikosystem unter ihrem Namen oder ihrer Marke in Betrieb genommen wurde, es sei denn, eine vertragliche Vereinbarung ordnet die Verpflichtungen anders zu.

Wenn diese Dritten ein neuer KI-Anbieter werden, sollte der ursprüngliche Anbieter eng mit ihnen zusammenarbeiten, um die Verpflichtungen der Verordnung zu erfüllen.

[Edited by Alice Taylor]



source-127

Leave a Reply