Kritiker behaupten, Paris nutze die Spiele 2024, um die Videoüberwachung von Big Brother einzuführen

Die französische Nationalversammlung soll am Dienstag vor den Olympischen Spielen 2024 in Paris ein Gesetz verabschieden. Artikel 7 ist der umstrittenste Aspekt dieses Gesetzes, da er die Verwendung von KI-Videoüberwachung zur Erkennung von abnormalem Verhalten ermöglichen wird. Menschenrechtsorganisationen und die französische Linke haben die Maßnahme verurteilt.

Das allumfassende Gesetz, das die französische Nationalversammlung am 28. März vor den Olympischen Spielen 2024 in Paris verabschieden soll, wird es ermöglichen, dass Geschäfte sonntags öffnen, ein Gesundheitszentrum im Departement Seine-Saint-Denis (nördlich von Paris) einrichten Paris) und erlauben dem französischen Staat, gegen künftig akkreditierte Personen zu ermitteln. Besonders umstritten ist jedoch Artikel 7 dieses Gesetzes, der besagt, dass KI-Videoüberwachung versuchsweise eingesetzt werden darf, um die Sicherheit der Olympischen Spiele zu gewährleisten. Menschenrechtsgruppen sagen, dass der Einsatz dieser Technologie einen gefährlichen Präzedenzfall schaffen wird.

In der Vorphase wurde Artikel 7 von der Präsidentenmehrheit, der Rechtspartei Frankreichs, angenommen Les Républicains und die rechtsextreme National Rally. Die Neue Ökologische und Soziale Volksunion (NUPES), eine Koalition linker Parteien, war dagegen. Es ermöglicht den versuchsweisen Einsatz von algorithmengesteuerter Videoüberwachungstechnik zur Gewährleistung der Sicherheit von großangelegten „Sport-, Freizeit- oder Kulturveranstaltungen“.

Neue Technologie in Frage

„Algorithmische Videoüberwachung ist eine neue Form der Technologie, die mithilfe von Computersoftware die von Überwachungskameras aufgenommenen Bilder in Echtzeit analysiert“, erklärt Arnaud Touati, ein auf digitales Recht spezialisierter Anwalt. „Die in der Software verwendeten Algorithmen basieren insbesondere auf maschineller Lerntechnologie, die es der KI-Videoüberwachung ermöglicht, sich im Laufe der Zeit weiter zu verbessern und an neue Situationen anzupassen.“

Befürworter dieser Technologie behaupten, in der Lage zu sein, Massenbewegungen vorherzusehen und zurückgelassenes Gepäck oder potenziell gefährliche Vorfälle zu erkennen. Im Vergleich zur herkömmlichen Videoüberwachung ist alles mit Algorithmen automatisiert, die für die Analyse zuständig sind – was laut Befürwortern dieser Technologie menschliche Fehler einschränkt.

„Während Frankreich sich weltweit als Verfechter der Menschenrechte präsentiert, wird seine Entscheidung, die KI-gestützte Massenüberwachung während der Olympischen Spiele zu legalisieren, zu einem umfassenden Angriff auf die Rechte auf Privatsphäre, Protest und Versammlungs- und Meinungsfreiheit führen“, so Amnesty International sagte in einer Erklärung nach der Verabschiedung des Artikels.

Ein Vorbote der zukünftigen Videoüberwachung in ganz Europa?

Katia Roux, Technologie- und Menschenrechtsexpertin der NGO, erklärt, dass diese Technologie viele Ängste hervorrufen kann. “Nach internationalem Recht muss die Gesetzgebung die strengen Grundsätze der Notwendigkeit und der Verhältnismäßigkeit beachten. In diesem Fall hat der Gesetzgeber dies jedoch nicht nachgewiesen”, sagt sie. „Wir sprechen von Assessment-Technologie, die Verhaltensweisen bewerten und als gefährdet einstufen muss, damit anschließend Maßnahmen ergriffen werden können.“


TECHNIK 24 © FRANKREICH 24

„Diese Technologie ist heute nicht legal. In Frankreich wurden Experimente durchgeführt, aber nicht innerhalb des rechtlichen Rahmens, den dieses Gesetz zu schaffen vorschlägt“, sagte sie. “Auf europäischer Ebene ist es auch nicht legal. Es wird sogar bei Diskussionen im Europäischen Parlament über Technologie und die Regulierung von Systemen der künstlichen Intelligenz zur Sprache gebracht. Die Gesetzgebung könnte daher auch gegen die derzeit im Entwurf befindliche europäische Verordnung verstoßen.”

„Durch die Verabschiedung dieses Gesetzes würde Frankreich zum Vorreiter der Videoüberwachung in der EU werden und einen äußerst gefährlichen Präzedenzfall schaffen. Es würde ein äußerst besorgniserregendes Signal an Länder senden, die versucht sein könnten, diese Technologie gegen ihre eigene Bevölkerung einzusetzen“, fuhr sie fort.

Diskriminierend?

Eine Befürchtung ist, dass der scheinbar kalte und unfehlbare Algorithmus tatsächlich diskriminierende Vorurteile enthalten könnte. „Diese Algorithmen werden mit einer Reihe von Daten trainiert, die von Menschen bestimmt und entworfen wurden. Sie werden daher dazu in der Lage sein die diskriminierenden Vorurteile der Menschen einbeziehen, die sie erdacht und entworfen haben“, sagt Roux.

„Die KI-Videoüberwachung wurde bereits für rassistische Zwecke eingesetzt, insbesondere von China bei der ausschließlichen Überwachung der Uiguren, einer im Land lebenden muslimischen Minderheit“, sagt Touati. „Da ethnische Minderheiten in den Daten, die den Algorithmen zu Lernzwecken bereitgestellt werden, unterrepräsentiert sind, gibt es erhebliche diskriminierende und rassistische Vorurteile. Laut einer MIT-Studie liegt der Gesichtserkennungsfehler bei 1 % für weiße Männer bei 34 %. für schwarze Frauen.”

Touati hingegen will das Glas halbvoll sehen. „Der Einsatz von KI-Videoüberwachung bei Ereignissen dieser Größenordnung könnte dies ebenfalls hervorheben Algorithmus diskriminierende, frauenfeindliche und rassistische Vorurteile, indem sie zu häufig, um genau zu sein, Menschen aus ethnischen Minderheitengruppen als potenzielle Verdächtige identifizieren”, erklärt er.

Auf die Frage von Mitgliedern der linken Oppositionskoalition NUPES, auf welche Art von Menschen die KI-Videoüberwachung abzielen würde, sagte der französische Innenminister Gérald Darmanin: „Nein [ones wearing] Hoodies.” Die französische Regierung glaubt, dass die vom Gesetz gesetzten Grenzen – fehlende Gesichtserkennung, Datenschutz – ausreichen werden, um diskriminierende Praktiken zu verhindern.

„Wir haben Sicherheitsvorkehrungen getroffen, damit Ausschreibungen nur Unternehmen vorbehalten sind, die eine bestimmte Anzahl von Regeln einhalten, darunter das Hosten von Daten auf nationalem Hoheitsgebiet und die Einhaltung der CNIL [National Commission on Informatics and Liberty; an independent French administrative regulatory body responsible for ensuring that data privacy law is applied to the collection, storage and use of personal data] und der DSGVO [General Data Protection Regulation ; a data protection law introduced by the EU]“, sagt der Abgeordnete Philippe Latombe, ein Mitglied der pro-europäischen und Mitte-Rechts-Partei Democratic Movement. Er hat gemeinsam mit der National Rally einen Änderungsantrag unterzeichnet, wonach die Ausschreibung europäischen Unternehmen Vorrang einräumt. „Eindeutig, wir Ich möchte nicht, dass es sich um ein chinesisches Unternehmen handelt, das Daten in China verarbeitet und die Daten für etwas anderes verwendet.”

„Wir sind durch die Garantien der Regierung nicht beruhigt. In Wirklichkeit ist keine wirkliche Änderung möglich, und diese Technologie ist an sich problematisch und gefährlich für die Menschenrechte“, sagt Roux. „Dies wird so bleiben, bis eine ernsthafte Bewertung durchgeführt wurde, die Notwendigkeit und Verhältnismäßigkeit seiner Verwendung nachgewiesen wurde und eine echte Debatte mit den verschiedenen Akteuren der Zivilgesellschaft zu diesem Thema geführt wurde.“

Sportveranstaltungen und Tech-Experimente

Obwohl die Olympischen Spiele eindeutig das Zielereignis sind, kann dieses technologische Experiment beginnen, sobald das Gesetz umgesetzt ist, und endet am 31. Dezember 2024, vier Monate nach dem Ende der Paralympischen Spiele. Es könnte daher auf eine Vielzahl von Veranstaltungen angewendet werden, beginnend mit der Rugby-Weltmeisterschaft vom 8. September bis 28. Oktober.

Gegner der KI-Videoüberwachung befürchten, dass der anfänglich außergewöhnliche Einsatz irgendwann alltäglich wird. Schließlich werden Sportveranstaltungen oft als Testgelände für Polizei, Sicherheit und neue Technologien genutzt. Die Olympischen Spiele 2012 in London beispielsweise führten zu einem weit verbreiteten Einsatz von Videoüberwachung in der britischen Hauptstadt.

„Wir befürchten, dass diese Ausnahmezeit zur Normalität wird“, erklärt Roux und fügt hinzu, dass die Spracherkennungstechnologie, die während der WM 2018 in Russland versuchsweise eingesetzt wurde, inzwischen zur Unterdrückung der Opposition eingesetzt wird.

Schließlich befürchtet Amnesty International, dass die Videoüberwachung schließlich zu einer biometrischen oder Sprachüberwachung führen wird. „Gesichtserkennung ist nur eine Funktion, die darauf wartet, aktiviert zu werden“, sagt Roux.

Das Gesetz zu den Olympischen Spielen 2024 hat seinen gesetzgeberischen Weg noch nicht abgeschlossen. Nach der formellen Abstimmung am Dienstag in der Nationalversammlung wird der Text mehreren Änderungen unterzogen und mehrere Reisen zwischen der Versammlung und dem Senat, die ihn zuvor geändert hatten, durchlaufen, bis sich die beiden Kammern auf seine Annahme einigen.

Peter O’Brien von Tech 24 zu diesem Artikel beigetragen.

Dieser Artikel wurde aus dem Original ins Französische übersetzt.

source site-27

Leave a Reply