Können neue KI-Strategien Menschen mit Behinderungen und andere gefährdete Gruppen schützen?


Die in diesem Artikel geäußerten Meinungen sind die des Autors und geben in keiner Weise die redaktionelle Position von Euronews wieder.

Algorithmen spiegeln die Gesellschaft wider, die sie geschaffen hat, und stellen die Logik dar, dass die Gesetzgebung zur Bewältigung spezifischer Herausforderungen die Gesellschaft und nicht nur die Algorithmen selbst widerspiegeln sollte, schreibt Yonah Welker.

WERBUNG

Nur wenige Wochen nachdem Bletchleys Erklärung von 28 Ländern unterzeichnet wurde, die sich auf einen risikobasierten Ansatz für Grenz-KI, Bereiche, Arten und Fälle von Risiken, einschließlich Gesundheit, Bildung, Arbeit und Menschenrechte, geeinigt haben.

Daraufhin erließen die USA die erste KI-Durchführungsverordnung, die Sicherheitsbewertungen, Leitlinien für Bürgerrechte und Forschung zu den Auswirkungen auf den Arbeitsmarkt vorsah, begleitet von der Gründung des AI Safety Institute.

Parallel dazu führte das Vereinigte Königreich das AI Safety Institute und den Online Safety Act ein, die den Ansatz der Europäischen Union und des Digital Services Act widerspiegeln.

Trotz der allgemeinen Zustimmung befinden sich die Länder noch in unterschiedlichen Stadien der Umsetzung dieser Vision, einschließlich der Bildung von Aufsichtsbehörden, erforderlichen Kapazitäten, risikobasierter Bewertung und Infrastruktur sowie der Verknüpfung bestehender Gesetze, Richtlinien und Rahmenwerke.

Es gibt auch unterschiedliche Ansätze, wie diese Aufsicht durchgesetzt werden kann, angefangen vom strengeren Ansatz in der EU – der zum aktuellen Widerstand grundlegender Modellentwickler führt, darunter Aleph Alpha aus Deutschland und Mistral aus Frankreich – bis hin zu einem eher „weichen“ Ansatz im Vereinigten Königreich .

Es gibt sogar noch größere Fragen im Zusammenhang mit bestimmten und risikoreichen Bereichen, die mehr Aufmerksamkeit erfordern, wie z. B. Polizeiarbeit, Justiz und Rechtssysteme, Gesundheit, Bildung und bestimmte Gruppen.

Dies ist besonders wichtig für Gruppen wie Menschen mit Behinderungen, Kinder und gefährdete Bevölkerungsgruppen.

Eine komplexe Aufgabe für Politik und Technik

Es ist beispielsweise bekannt, dass viele juristische KI-Systeme ohne die Beteiligung bestimmter Bevölkerungsgruppen trainiert wurden, was zu höheren Fehlern bei ihnen führte. In einigen Ländern wurde Regierungsbehörden vorgeworfen, Daten aus sozialen Medien ohne Zustimmung zu verwenden, um den Behindertenstatus von Patienten für Rentenprogramme zu bestätigen.

Einwanderer neigen dazu, medizinische Untersuchungen und Tests zu meiden, weil sie befürchten, abgeschoben zu werden oder mit inakzeptablen medizinischen Kosten konfrontiert zu werden. Daher spiegeln die Statistiken und öffentlichen Datensätze dies einfach nicht wider.

Schließlich kann es sein, dass die KI Personen mit fehlenden Gliedmaßen, Gesichtsunterschieden, Asymmetrie, Sprachbehinderung, unterschiedlichen Kommunikationsstilen oder Gestikulationen oder Personen, die Hilfsmittel verwenden, möglicherweise nicht richtig erkennt.

In einem anderen Beispiel können Gesichtserkennungssysteme die Ohrform oder das Vorhandensein eines Gehörgangs nutzen, um zu bestimmen, ob ein Bild ein menschliches Gesicht enthält oder nicht. Dennoch funktioniert es möglicherweise nicht für Gruppen mit kraniofazialen Syndromen oder denen diese Teile fehlen.

Seit dem ersten Vorschlag des EU-KI-Gesetzes im Jahr 2021 hat die Europäische Kommission Berufungen und Kommentare erhalten, die sich mit KI und Behindertenrechten, dem Einsatz von biometrischen Systemen, Gesichts- und Emotionserkennungssystemen sowie Fällen, die Flüchtlinge und Einwanderer betreffen, einschließlich automatisierter Risikobewertung und Profilerstellung, befassen Systeme.

Allerdings ist die Erforschung und Entwicklung behinderungsorientierter KI-Systeme sowohl aus technologischer als auch aus politischer Sicht immer noch eine komplexe Aufgabe.

Es umfasst seinen intersektionalen Charakter, zustands-, alters-, geschlechts- und spektrumspezifische Parameter sowie die Einbeziehung mehrerer rechtlicher Rahmenbedingungen, um es angemessen anzugehen und zu schützen.

Damit kommt es zu einer zunehmenden Bedeutung nicht-KI-spezifischer Rahmenwerke wie dem Accessibility Act, den EU Digital Services and Market Acts, der Konvention über die Rechte von Menschen mit Behinderungen, Gleichstellungs- und Kinderschutzgesetzen sowie der Einbeziehung spezialisierter Institutionen und multilateraler Agenturen über die bloße Bildung allgemeiner „KI-Sicherheitsinstitute“ hinaus.

EU, KI, bestimmte Gruppen und rechtliche Ökosysteme

Es ist wichtig zu bedenken, dass die Regulierung von KI-Systemen, die sich an bestimmte Gruppen oder Menschen mit Behinderungen richtet, nicht auf ein einziges Rechtsdokument beschränkt ist, sondern durch das Spektrum rechtlicher Rahmenbedingungen, Gesetze, Konventionen und Richtlinien dargestellt wird.

Insbesondere können solche Fälle durch „KI“-spezifische Gesetze, damit verbundene Daten, Verbraucher- und Menschenrechtsrahmen, Memoranden und Konventionen geregelt oder beeinflusst werden.

Beispielsweise können unterstützende Technologien, die zur Unterstützung von Legasthenie oder Autismus eingesetzt werden, durch Artikel des AI Act, Datenschutzbestimmungen, spezifische Gesetze zum Schutz von Kindern und bestimmten Gruppen wie der Konvention über die Rechte von Menschen mit Behinderungen sowie länderspezifische Gleichberechtigung und Gleichstellung beeinträchtigt werden -Diskriminierungsgesetze.

WERBUNG

Die Europäische Kommission begann bereits vor der vollständigen Einführung des KI-Gesetzes mit der Suche nach Möglichkeiten zur Bewältigung von KI-Systemen und ihren spezifischen Risiken.

Insbesondere enthielt die früher geltende DSGVO (Datenschutz-Grundverordnung) Artikel zu den Themen Profilierung bestimmter Gruppen, Verwendung von „rassen-“ und „geschlechtsspezifischen“ Daten, Jugendschutz, Biometrie und Gesichtserkennungssystemen und -daten.

Einen sichereren digitalen Raum schaffen

Aus Sicht der benannten Gruppen spielt auch das Gesetz über digitale Dienste (parallel zum Gesetz über digitale Märkte) eine wichtige Rolle.

Auch wenn es nicht KI-spezifisch ist, zielt es darauf ab, „einen sichereren digitalen Raum zu schaffen, in dem die Grundrechte der Nutzer geschützt sind“.

Insbesondere werden Anforderungen an die Online-Plattformen hinsichtlich Transparenz, Rechenschaftspflicht, Erklärbarkeit der verwendeten Algorithmen, Verwendung von „Dark Patterns“, Jugendschutz, Targeting und Profiling, Datenschutz und Einwilligung, Manipulation, Einführung von „vertrauenswürdigen Hinweisgebern“ und Moderatoren eingeführt. die Rückkopplungsschleife zwischen Plattformen und Interessengruppen, benannte „Koordinatoren für digitale Dienste in den Mitgliedstaaten“.

WERBUNG

Diese Mechanismen tragen dazu bei, den Schutz der Nutzer, die mitgliedstaatenübergreifende Zusammenarbeit, Untersuchungen und rechtliche Rahmenbedingungen, einschließlich der Einbeziehung relevanter Gerichte und Behörden, besser zu gewährleisten.

Begleitet wird es durch das Gesetz zur Barrierefreiheit von 2025, das darauf abzielt, das Funktionieren des Binnenmarkts für barrierefreie Produkte und Dienstleistungen zu verbessern, indem Hindernisse beseitigt werden, die durch unterschiedliche Vorschriften in den Mitgliedstaaten entstehen.

Schließlich werden diese Bemühungen von multilateralen Organisationen wie der UNESCO, der WHO und der OECD unterstützt, die an bereichsspezifischen Leitlinien für den Umgang mit generativer KI in den Bereichen Bildung, Gesundheitswesen, Alphabetisierung und kapazitätsorientierten Empfehlungen arbeiten.

Dazu gehört der KI-Kompetenzrahmen der UNESCO für Schüler und Lehrer oder eine Empfehlung, das Mindestalter für den Einsatz generativer KI auf 13 Jahre festzulegen.

Darüber hinaus erhielt der jüngste Aktionsplan zur Bekämpfung von Desinformation und den Schäden durch soziale Medien Antworten aus 134 Ländern, darunter Afrika und Lateinamerika.

WERBUNG

Spezialisierung, Zusammenarbeit und Weg nach vorne

Algorithmen spiegeln die Gesellschaft wider, die sie geschaffen hat, und legen die Logik nahe, dass die Gesetzgebung zur Bewältigung spezifischer Herausforderungen die Gesellschaft und nicht nur Algorithmen widerspiegeln sollte.

Die Minderung von Algorithmenrisiken gegenüber bestimmten Gruppen ist ein ziemlich komplexer Prozess, der die zunehmende Rolle nicht-KI-spezifischer Rechtsvorschriften mit sich bringt und über die bloße Bildung von „KI-Sicherheitsinstituten“ hinausgeht.

Dazu gehört die Erstellung von Risikokategorien und Folgenabschätzungen speziell für diese Gruppen, die Berücksichtigung sozialer und historischer Faktoren hinter den Algorithmen, die Sicherstellung des Datenzugriffs sowie die Aufsicht und Beteiligung mehrerer Interessengruppen.

Yonah Welker ist KI-Expertin, Technologieforscherin und öffentliche Stimme für algorithmische Vielfalt und arbeitet an von der Europäischen Kommission finanzierten Forschungs-, Technologie- und Innovationsprojekten.

Bei Euronews glauben wir, dass jede Meinung zählt. Kontaktieren Sie uns unter [email protected], um Pitches oder Einsendungen zu senden und an der Diskussion teilzunehmen.

WERBUNG

source-121

Leave a Reply