Joe Biden möchte, dass die Algorithmen der US-Regierung auf mögliche Schäden für Bürger getestet werden


„Das Rahmenwerk ermöglicht eine Reihe verbindlicher Anforderungen an Bundesbehörden, um Schutzmaßnahmen für den Einsatz von KI einzuführen, damit wir die Vorteile nutzen und der Öffentlichkeit ermöglichen können, den von der Bundesregierung bereitgestellten Diensten zu vertrauen“, sagt Jason Miller, stellvertretender Direktor der OMB für das Management.

Der Memoentwurf hebt bestimmte Einsatzmöglichkeiten von KI hervor, bei denen die Technologie Rechte oder Sicherheit beeinträchtigen kann, darunter im Gesundheitswesen, im Wohnungswesen und bei der Strafverfolgung – alles Situationen, in denen Algorithmen in der Vergangenheit zu Diskriminierung oder Verweigerung von Diensten geführt haben.

Beispiele für potenzielle Sicherheitsrisiken, die im OMB-Entwurf erwähnt werden, umfassen die Automatisierung kritischer Infrastrukturen wie Staudämme und selbstfahrende Fahrzeuge wie die Cruise-Robotaxis, die letzte Woche in Kalifornien stillgelegt wurden und von Bundes- und Landesaufsichtsbehörden untersucht werden, nachdem ein Fußgänger von einem Fahrzeug angefahren wurde wurde 20 Fuß weit geschleppt. Beispiele dafür, wie KI im Entwurf des Memos die Rechte der Bürger verletzen könnte, sind vorausschauende Polizeiarbeit, KI, die geschützte Sprache blockieren kann, Software zur Plagiats- oder Emotionserkennung, Algorithmen zur Mieterüberprüfung und Systeme, die sich auf die Einwanderung oder das Sorgerecht für Kinder auswirken können.

Laut OMB verwenden Bundesbehörden derzeit mehr als 700 Algorithmen, obwohl die von Bundesbehörden bereitgestellten Inventare unvollständig sind. Miller sagt, dass der Memoentwurf von den Bundesbehörden verlangt, mehr über die von ihnen verwendeten Algorithmen preiszugeben. „Wir gehen davon aus, dass wir in den kommenden Wochen und Monaten die Fähigkeit der Behörden verbessern werden, ihre Anwendungsfälle zu identifizieren und darüber zu berichten“, sagt er.

Vizepräsidentin Kamala Harris erwähnte das OMB-Memo neben anderen verantwortungsvollen KI-Initiativen heute in einer Rede vor der US-Botschaft in London, die diese Woche anlässlich des britischen KI-Sicherheitsgipfels angereist war. Sie sagte, dass sich einige Stimmen in der KI-Politik zwar auf katastrophale Risiken wie die Rolle konzentrieren, die KI eines Tages bei Cyberangriffen oder der Entwicklung biologischer Waffen spielen kann, Voreingenommenheit und Fehlinformationen jedoch bereits durch KI verstärkt werden und sich täglich auf Einzelpersonen und Gemeinschaften auswirken.

Merve Hickok, Autorin eines demnächst erscheinenden Buches über KI-Beschaffungspolitik und Forscherin an der University of Michigan, begrüßt, dass das OMB-Memo von Agenturen verlangen würde, ihren Einsatz von KI zu rechtfertigen und bestimmten Personen die Verantwortung für die Technologie zuzuweisen. Das sei ein potenziell wirksamer Weg, um sicherzustellen, dass KI nicht in jedes Regierungsprogramm eingebaut wird, sagt sie.

Doch die Bereitstellung von Befreiungen könnte diese Mechanismen untergraben, befürchtet sie. „Ich wäre besorgt, wenn wir sehen würden, dass Behörden diese Ausnahmeregelung in großem Umfang nutzen, insbesondere Strafverfolgung, Heimatschutz und Überwachung“, sagt sie. „Sobald sie den Verzicht erhalten, kann dieser auf unbestimmte Zeit gelten.“

source-114

Leave a Reply