Die nachträgliche Gesichtserkennungsüberwachung verbirgt Menschenrechtsverletzungen vor aller Augen


Von Ella Jakubowska, EDRi, Hajira Maryam und Matt Mahmoudi, Amnesty International

Nach dem Einbruch in ein französisches Logistikunternehmen im Jahr 2019 wurde die Gesichtserkennungstechnologie (FRT) für Überwachungskameraaufnahmen des Vorfalls verwendet, um die Täter zu identifizieren.

FRT arbeitet, indem es versucht, Bilder von beispielsweise Überwachungskameras (CCTV) mit Datenbanken von oft Millionen von Gesichtsbildern abzugleichen, die in vielen Fällen ohne Wissen und Zustimmung gesammelt wurden.

In diesem Fall listete das FRT-System zweihundert Personen als potenzielle Verdächtige auf.

Aus dieser Liste wählte die Polizei „Herrn H.“ aus und klagte ihn des Diebstahls an, obwohl ihm physische Beweise fehlten, um ihn mit dem Verbrechen in Verbindung zu bringen.

Während seines Prozesses lehnte das Gericht einen Antrag des Anwalts von Herrn H. auf Weitergabe von Informationen darüber ab, wie das System die Liste zusammengestellt hat, die im Mittelpunkt der Entscheidung stand, Herrn H. anzuklagen.

Der Richter beschloss, sich auf diese notorisch diskriminierende Technologie zu verlassen, und verurteilte Herrn H. zu 18 Monaten Gefängnis.

Angeklagt durch Gesichtserkennung

“Live” FRT ist oft das Ziel von (wohlverdienter) Kritik, da die Technologie verwendet wird, um Personen in Echtzeit zu verfolgen und zu überwachen.

Der Einsatz von Gesichtserkennungstechnologie im Nachhinein, nachdem ein Vorfall stattgefunden hat, wird jedoch weniger genau untersucht, obwohl er in Fällen wie dem von Herrn H. verwendet wird.

Retrospektive FRT wird durch die breite Verfügbarkeit von Überwachungskameramaterial und die bereits vorhandene Infrastruktur für diese Technik einfacher und umfassender.

Als Teil der Verhandlungen über ein neues Gesetz zur Regulierung künstlicher Intelligenz (KI), dem KI-Gesetz, schlagen die EU-Regierungen nun vor, den routinemäßigen Einsatz der nachträglichen Gesichtserkennung gegenüber der breiten Öffentlichkeit zuzulassen – durch die Polizei, Kommunalverwaltungen und sogar Privatunternehmen .

Das von der EU vorgeschlagene KI-Gesetz basiert auf der Prämisse, dass die nachträgliche FRT weniger schädlich ist als ihre „Live“-Iteration.

Die EU-Exekutive hat argumentiert, dass die Risiken und Schäden durch die zusätzliche Zeit gemildert werden können, die die nachträgliche Verarbeitung bietet.

Dieses Argument ist falsch. Die zusätzliche Zeit verfehlt nicht nur die Schlüsselprobleme – die Zerstörung der Anonymität und die Unterdrückung von Rechten und Freiheiten – sondern bringt auch zusätzliche Probleme mit sich.

„Post“ RBI: Die gefährlichste Überwachungsmaßnahme, von der Sie noch nie gehört haben?

Remote Biometric Identification (RBI) ist ein Überbegriff für Systeme wie FRT, die Menschen anhand ihres Gesichts – oder anderer Körperteile – aus der Ferne scannen und identifizieren.

Der EU-KI-Gesetzesvorschlag spricht rückwirkend von „Post RBI“. Post RBI bedeutet, dass Software verwendet werden könnte, um Personen in einem Feed aus öffentlichen Räumen Stunden, Wochen oder sogar Monate nach der Erfassung zu identifizieren.

Zum Beispiel läuft FRT auf Demonstranten, die auf CCTV-Kameras positioniert sind. Oder, wie im Fall von Herrn H., CCTV-Aufnahmen mit einer Regierungsdatenbank mit unglaublichen 8 Millionen Gesichtsbildern abzugleichen.

Die Verwendung dieser Systeme erzeugt eine abschreckende Wirkung in der Gesellschaft; davon, wie wohl wir uns fühlen, wenn wir an einem Protest teilnehmen, medizinische Versorgung in Anspruch nehmen – wie Abtreibung an Orten, an denen sie kriminalisiert wird – oder mit einem Journalisten sprechen.

Allein das Wissen, dass retrospektive FRT verwendet werden könnten, könnte uns Angst davor machen, wie Informationen über unser persönliches Leben in Zukunft gegen uns verwendet werden könnten.

FRT kann auch Rassismus nähren

Untersuchungen deuten darauf hin, dass die Anwendung von FRT rassistische Gemeinschaften unverhältnismäßig stark betrifft.

Amnesty International hat gezeigt, dass Personen, die in Gebieten leben, in denen ein höheres Risiko für rassistische Anhalte- und Durchsuchungskontrollen besteht – von denen überwiegend Farbige betroffen sind –, wahrscheinlich mehr Datenerfassung und invasiver Gesichtserkennungstechnologie ausgesetzt sind.

Zum Beispiel wurde Dwreck Ingram, ein Protestorganisator von Black Lives Matter aus New York, in seiner Wohnung vier Stunden lang ohne Haftbefehl oder legitime Anklage belästigt, einfach weil er nach seiner Teilnahme an einem Black Lives von der Post RBI identifiziert worden war Materie Protest.

Ingram endete in einem langen Rechtsstreit, um falsche Anklagen gegen ihn fallen zu lassen, nachdem klar wurde, dass die Polizei diese experimentelle Technologie bei ihm angewendet hatte.

Die Liste geht weiter. Robert Williams, ein Bewohner von Detroit, wurde fälschlicherweise wegen Diebstahls verhaftet, der von jemand anderem begangen wurde.

Randall Reid wurde in Louisiana ins Gefängnis gesteckt, einem Staat, den er nie besucht hatte, weil die Polizei ihn fälschlicherweise als Verdächtigen eines Raubüberfalls mit FRT identifiziert hatte.

Insbesondere für rassistische Gemeinschaften ist die Normalisierung der Gesichtserkennung die Normalisierung ihrer ständigen virtuellen Aufstellung.

Wenn Sie online präsent sind, befinden Sie sich wahrscheinlich bereits in FRT-Datenbanken

Diese dystopische Technologie wurde auch von Fußballvereinen in den Niederlanden verwendet, um nach gesperrten Fans zu suchen und einem Fan, der das betreffende Spiel nicht besucht hat, fälschlicherweise eine Geldstrafe aufzuerlegen.

Berichten zufolge wurde es auch von der Polizei in Österreich gegen Demonstranten und in Frankreich unter dem Deckmantel eingesetzt, Städte „sicherer“ und effizienter zu machen, tatsächlich aber die Massenüberwachung zu verstärken.

Diese Technologien werden oft zu geringen bis gar keinen Kosten angeboten.

Ein Unternehmen, das solche Dienste anbietet, ist Clearview AI. Das Unternehmen hat Tausenden von Strafverfolgungsbeamten und -behörden in ganz Europa, den USA und anderen Regionen hochinvasive Gesichtserkennungssuchen angeboten.

In Europa haben sich die nationalen Datenschutzbehörden entschieden gegen diese Praktiken ausgesprochen, wobei die italienischen und griechischen Aufsichtsbehörden Clearview AI mit Geldbußen in Millionenhöhe belegten, weil sie EU-Bürgern ohne Rechtsgrundlage das Gesicht gekratzt hatten.

Schwedische Aufsichtsbehörden haben die nationale Polizei wegen unrechtmäßiger Verarbeitung personenbezogener Daten bei der Verwendung von Clearview AI zur Identifizierung von Personen mit einer Geldstrafe belegt.

Das KI-Gesetz könnte eine Chance sein, den Missbrauch der Massenüberwachung zu beenden

Trotz dieser vielversprechenden Schritte zum Schutz unserer Menschenrechte vor nachträglicher Gesichtserkennung durch Datenschutzbehörden versuchen die EU-Regierungen nun, diese gefährlichen Praktiken trotzdem umzusetzen.

Experimente zur biometrischen Identifizierung in Ländern auf der ganzen Welt haben uns immer wieder gezeigt, dass diese Technologien und die damit verbundene Massendatenerfassung die Rechte der am stärksten ausgegrenzten Menschen, einschließlich rassistischer Gemeinschaften, Flüchtlinge, Migranten und Asylsuchender, untergraben.

Europäische Länder haben damit begonnen, eine Reihe biometrischer Massenüberwachungspraktiken zu legalisieren, und drohen, die Verwendung dieser aufdringlichen Systeme in der gesamten EU zu normalisieren.

Aus diesem Grund brauchen wir mehr denn je eine starke EU-Regulierung, die alle Formen der Live- und retrospektiven biometrischen Massenüberwachung in unseren Gemeinden und an den EU-Grenzen erfasst, einschließlich der Verhinderung von Post RBI in ihren Spuren.

Mit dem KI-Gesetz hat die EU die einzigartige Gelegenheit, dem grassierenden Missbrauch, der durch Massenüberwachungstechnologien ermöglicht wird, ein Ende zu setzen.

Sie muss einen hohen Standard für den Schutz der Menschenrechte bei der Nutzung neuer Technologien setzen, insbesondere wenn diese Technologien bestehende Ungleichheiten in der Gesellschaft verstärken.

Ella Jakubowska ist Senior Policy Advisor bei European Digital Rights (EDRi), einem Netzwerkkollektiv aus gemeinnützigen Organisationen, Experten, Anwälten und Akademikern, die sich für die Verteidigung und Förderung digitaler Rechte auf dem gesamten Kontinent einsetzen.

Hajira Maryam ist Medienmanagerin und Matt Mahmoudi ist KI- und Menschenrechtsforscher bei Amnesty Tech, einem globalen Kollektiv von Anwälten, Aktivisten, Hackern, Forschern und Technologen, die sich für die Menschenrechte im digitalen Zeitalter einsetzen.

Wir bei Euronews glauben, dass alle Meinungen zählen. Kontaktieren Sie uns unter [email protected], um Pitches oder Einreichungen zu senden und sich an der Konversation zu beteiligen.

source-121

Leave a Reply