In der Ukraine geht die Identifizierung der Toten zu Lasten der Menschenrechte


Fünf Tage danach Russland startete diese Woche vor einem Jahr seine umfassende Invasion in der Ukraine. Das in den USA ansässige Gesichtserkennungsunternehmen Clearview AI bot der ukrainischen Regierung freien Zugang zu seiner Technologie und schlug vor, dass sie verwendet werden könnte, um Familien wieder zusammenzuführen, russische Agenten zu identifizieren und zu kämpfen Fehlinformationen. Bald darauf gab die ukrainische Regierung bekannt, dass sie die Technologie einsetzte, um die Gesichter toter russischer Soldaten zu scannen, um ihre Leichen zu identifizieren und ihre Familien zu benachrichtigen. Bis Dezember 2022 war Mykhailo Fedorov Vizepremierminister und Minister für digitale Transformation der Ukraine twittern ein Bild von sich selbst mit dem CEO von Clearview AI, Hoan Ton-That, der dem Unternehmen für seine Unterstützung dankt.

Für die Toten Rechenschaft abzulegen und die Familien über das Schicksal ihrer Angehörigen zu informieren, ist a menschenrechtliches Gebot geschrieben in internationale Verträge, Protokolle und Gesetze wie die Genfer Konventionen und des Internationalen Komitees vom Roten Kreuz“ (IKRK) Leitprinzipien für einen würdevollen Umgang mit den Toten. Es ist auch mit viel tieferen Verpflichtungen verbunden. Die Fürsorge für die Toten gehört zu den ältesten menschlichen Praktiken, die uns ebenso menschlich macht wie die Sprache und die Fähigkeit zur Selbstreflexion. Der Historiker Thomas Laqueur hat in seiner epischen Meditation Das Werk der Toten, schreibt, dass „seit Menschen dieses Thema diskutiert haben, wurde die Fürsorge für die Toten als grundlegend angesehen – der Religion, des Gemeinwesens, des Clans, des Stammes, der Fähigkeit zu trauern, des Verständnisses der Endlichkeit des Lebens, der Zivilisation selbst.“ Aber die Identifizierung der Toten mithilfe von Gesichtserkennungstechnologie nutzt das moralische Gewicht dieser Art der Fürsorge, um eine Technologie zu genehmigen, die schwerwiegende Menschenrechtsbedenken aufwirft.

In der Ukraine, die blutigsten Krieg In Europa scheint die Gesichtserkennung seit dem Zweiten Weltkrieg nur ein weiteres Werkzeug zu sein, das für die düstere Aufgabe der Identifizierung der Gefallenen eingesetzt wird Digitalisierung von Leichenschaubüchern, mobile DNA-LaboreUnd Massengräber exhumieren.

Aber funktioniert es? Ton-That sagt die Technologie seines Unternehmens „funktioniert effektiv, unabhängig von Gesichtsschäden, die bei einer verstorbenen Person aufgetreten sein könnten.“ Es gibt wenig Forschung, um diese Behauptung zu stützen, aber Autoren von eine kleine Studie fanden Ergebnisse, die selbst für Gesichter in Zersetzungszuständen „vielversprechend“ waren. Der forensische Anthropologe Luis Fondebrider, ehemaliger Leiter der forensischen Dienste des IKRK, der in Konfliktgebieten auf der ganzen Welt gearbeitet hat, bezweifelt diese Behauptungen jedoch. „Dieser Technologie mangelt es an wissenschaftlicher Glaubwürdigkeit“, sagt er. “Es wird von der forensischen Gemeinschaft absolut nicht allgemein akzeptiert.” (Die DNA-Identifizierung bleibt der Goldstandard.) Das Gebiet der Forensik „versteht Technologie und die Bedeutung neuer Entwicklungen“, aber der Ansturm auf die Gesichtserkennung ist nach Ansicht von Fondebrider „eine Kombination aus Politik und Wirtschaft mit sehr wenig Wissenschaft“. „Es gibt keine magischen Lösungen für die Identifizierung“, sagt er.

Die Verwendung einer unerprobten Technologie zur Identifizierung gefallener Soldaten könnte zu Fehlern führen und Familien traumatisieren. Aber selbst wenn die forensische Verwendung von Gesichtserkennungstechnologie durch wissenschaftliche Beweise gestützt würde, sollte sie nicht verwendet werden, um die Namen der Toten zu nennen. Es ist zu gefährlich für die Lebenden.

Organisationen inkl Amnesty International, die Electronic Frontier Foundationdas Surveillance Technology Oversight Project und das Immigrant Defense Project haben die Gesichtserkennungstechnologie zu einer bedrohlichen Form der Massenüberwachung erklärt Privatsphäreverstärkt Rassistische Polizeiarbeitdroht die recht zu protestierenund kann dazu führen unrechtmäßige Festnahme. Damini Satija, Leiterin des Algorithmic Accountability Lab von Amnesty International und stellvertretende Direktorin von Amnesty Tech, sagt, dass die Gesichtserkennungstechnologie die Menschenrechte untergräbt, indem sie „strukturelle Diskriminierung in großem Umfang reproduziert und bestehende gesellschaftliche Ungleichheiten automatisiert und verfestigt“. In Russland, Gesichts- Erkennung Technologie wird verwendet, um politische Meinungsverschiedenheiten zu unterdrücken. Es rechtlich nicht erfüllt Und ethische Standards wenn es in der Strafverfolgung in Großbritannien und den USA verwendet wird, und ist bewaffnet gegen ausgegrenzt Gemeinschaften um Die Welt.

Klare Sicht AI, das seine Waren hauptsächlich an die Polizei verkauft, verfügt mit 20 Milliarden Bildern über eine der größten bekannten Datenbanken mit Gesichtsfotos und plant, weitere 100 Milliarden Bilder zu sammeln – das entspricht 14 Fotos für jeden Menschen auf dem Planeten. Das Unternehmen hat versprochen Investoren, dass bald „fast jeder auf der Welt identifizierbar sein wird“. Regler drin Italien, Australien, Großbritannien und Frankreich haben die Datenbank von Clearview für illegal erklärt und das Unternehmen angewiesen, die Fotos ihrer Bürger zu löschen. In der EU, Fordern Sie Ihr Gesicht zurückeine Koalition von mehr als 40 Organisationen der Zivilgesellschaft, hat ein vollständiges Verbot der Gesichtserkennungstechnologie gefordert.

KI-Ethikforscher Stephanie Hase sagt, dass die Ukraine „ein Werkzeug verwendet und ein Unternehmen und einen CEO fördert, die sich nicht nur unethisch, sondern auch illegal verhalten haben“. Sie vermutet, dass „der Zweck die Mittel heiligt“, fragt aber: „Warum ist es so wichtig, dass die Ukraine tote russische Soldaten mithilfe von Clearview AI identifizieren kann? Wie wichtig ist das, um die Ukraine zu verteidigen oder den Krieg zu gewinnen?“



source-114

Leave a Reply