US-Gesetzgeber fordern das Justizministerium auf, die blinde Finanzierung „vorausschauender“ Polizeiinstrumente einzustellen


Dem US-Justizministerium ist es nicht gelungen, eine Gruppe von US-Gesetzgebern davon zu überzeugen, dass staatliche und lokale Polizeibehörden keine Bundeszuschüsse für den Kauf KI-basierter „Polizei“-Instrumente erhalten, die bekanntermaßen ungenau sind, wenn nicht sogar dazu neigen, die seit langem beobachteten Vorurteile zu verschärfen US-Polizeikräfte.

Sieben Kongressabgeordnete schrieben ein ein Brief an das DOJ, die zuerst von WIRED erhalten wurde, dass die Informationen, die sie der Agentur entlockt hatten, nur dazu gedient hatten, ihre Bedenken hinsichtlich des Polizeizuschussprogramms des DOJ zu schüren. In ihren bisherigen Antworten, sagten die Gesetzgeber, deutet nichts darauf hin, dass sich die Regierung die Mühe gemacht hat, zu untersuchen, ob Ministerien, die Zuschüsse gewährt haben, diskriminierende Polizeisoftware gekauft haben.

„Wir fordern Sie dringend auf, alle Zuschüsse des Justizministeriums für prädiktive Polizeisysteme einzustellen, bis das DOJ sicherstellen kann, dass Zuschussempfänger solche Systeme nicht auf eine Weise nutzen, die diskriminierende Auswirkungen hat“, heißt es in dem Brief. Das Justizministerium zuvor anerkannt dass es nicht nachverfolgt habe, ob Polizeibehörden die im Rahmen des Edward Byrne Memorial Justice Assistance Grant Program gewährten Mittel für den Kauf sogenannter Predictive Policing Tools nutzten.

Unter der Leitung von Senator Ron Wyden, einem Demokraten aus Oregon, sagen die Gesetzgeber, dass das DOJ gesetzlich verpflichtet sei, „regelmäßig zu überprüfen“, ob Zuschussempfänger Titel VI des Civil Rights Act des Landes einhalten. Sie erklären, dass es dem Justizministerium offensichtlich verboten sei, Programme zu finanzieren, die nachweislich aufgrund von Rasse, ethnischer Zugehörigkeit oder nationaler Herkunft diskriminieren, unabhängig davon, ob dies beabsichtigt sei oder nicht.

Unabhängige Untersuchungen in der Presse haben ergeben, dass beliebte „vorausschauende“ Polizeiinstrumente, die auf historischen Kriminalitätsdaten basieren, häufig lang gehegte Vorurteile reproduzieren und den Strafverfolgungsbehörden bestenfalls einen Anschein wissenschaftlicher Legitimität verleihen, während sie gleichzeitig die übermäßige Polizeiarbeit in überwiegend schwarzen und lateinamerikanischen Vierteln aufrechterhalten . In einer Oktober-Schlagzeile von The Markup heißt es unverblümt: „Predictive Policing-Software ist schlecht darin, Verbrechen vorherzusagen.“ In der Geschichte wird erzählt, wie Forscher der Publikation kürzlich 23.631 Vorhersagen von Polizeikriminalität untersuchten – und fanden, dass sie in etwa 1 Prozent der Fälle zutreffend waren.

„Vorausschauende Polizeisysteme stützen sich auf historische Daten, die durch gefälschte Kriminalitätsberichte und unverhältnismäßige Festnahmen farbiger Menschen verzerrt sind“, schrieben Wyden und die anderen Gesetzgeber und sagten voraus:wie viele Forscher haben– dass die Technologie nur dazu dient, „gefährliche“ Rückkopplungsschleifen zu erzeugen. In der Erklärung heißt es, dass „voreingenommene Vorhersagen dazu verwendet werden, unverhältnismäßige Kontrollen und Verhaftungen in Minderheitenvierteln zu rechtfertigen“, was die Statistiken darüber, wo Verbrechen stattfinden, noch weiter verzerrt.

Die Senatoren Jeffrey Merkley, Ed Markey, Alex Padilla, Peter Welch und John Fetterman sowie die Abgeordnete Yvette Clarke haben den Brief ebenfalls mitunterzeichnet.

Die Gesetzgeber haben gefordert, dass in einem bevorstehenden Bericht des Präsidenten über Polizeiarbeit und künstliche Intelligenz der Einsatz prädiktiver Polizeiinstrumente in den USA untersucht wird. „Der Bericht sollte die Genauigkeit und Präzision von Predictive-Policing-Modellen über geschützte Klassen hinweg, ihre Interpretierbarkeit und ihre Gültigkeit bewerten“, und fügten hinzu, „alle Einschränkungen bei der Bewertung ihrer Risiken, die sich aus mangelnder Transparenz seitens der Unternehmen ergeben, die sie entwickeln.“ ”

Sollte das DOJ die Technologie nach dieser Bewertung weiterhin finanzieren wollen, so der Gesetzgeber, sollte es zumindest „Beweisstandards“ festlegen, um festzustellen, welche Vorhersagemodelle diskriminierend sind – und dann die Finanzierung all derjenigen ablehnen, die diese nicht erfüllen.

source-114

Leave a Reply