Panel: Connecticut braucht Sicherheitsvorkehrungen für Agenturalgorithmen


HARTFORD, Connecticut (AP) – Connecticut braucht Schutzmaßnahmen für den Einsatz künstlicher Intelligenz durch die Landesregierung, einschließlich Algorithmen bei der Kinderfürsorge und anderen Behörden, um Diskriminierung zu verhindern und die Transparenz zu erhöhen, sagte ein Beratungsgremium der US-Bürgerrechtskommission am Donnerstag.

Das Connecticut Advisory Committee der Bundeskommission forderte die Gesetzgeber der Bundesstaaten auf, Gesetze zur Regulierung solcher Systeme zu verabschieden, die in anderen Teilen des Landes Bedenken ausgelöst haben.

Das Problem, so Kritiker, ist, dass Algorithmen fehlerhafte Daten verwenden können, die Minderheiten, Familien mit niedrigem Einkommen, Menschen mit Behinderungen und andere Gruppen unverhältnismäßig identifizieren können, wenn Behörden Entscheidungen treffen, Kinder aus Häusern zu entfernen, Gesundheits-, Wohn- und andere Leistungen zu genehmigen, wo das Recht zu konzentrieren ist Durchsetzung und Zuordnung von Kindern zu Schulen, unter anderem.

„Der Bundesstaat Connecticut trifft jeden Tag Tausende von Entscheidungen, die sich auf das Leben und die Bürgerrechte der Einwohner auswirken“, sagte David McGuire, Vorsitzender des Connecticut Advisory Committee. „Wenn der Staat einen Algorithmus verwendet, sollten die Einwohner wissen, welche Behörde den Algorithmus verwendet, warum er verwendet wird, und versichern, dass der Algorithmus fair ist.“

Das Komitee hat keine konkreten Fälle von Diskriminierung und Voreingenommenheit bei der Verwendung von Algorithmen in Connecticut festgestellt, sagte jedoch, es werde innerhalb der nächsten Monate einen umfassenderen Bericht veröffentlichen. Das Gremium wies auch auf eine Studie hin, in der es heißt, dass einige Behörden in Connecticut keine vollständigen Informationen über ihre Verwendung von Algorithmen veröffentlichten, wenn sie nach den Gesetzen für öffentliche Aufzeichnungen gefragt wurden.

Bedenken hinsichtlich eines solchen Einsatzes künstlicher Intelligenz oder KI veranlassten die Biden-Regierung im Oktober, ihren Blueprint for a AI Bill of Rights herauszugeben Aufforderung an die Regierung, Maßnahmen zum Schutz digitaler und bürgerlicher Rechte zu ergreifen. Mehrere Bundesstaaten haben eigene KI-Gesetze verabschiedet.

Eine Untersuchung von The Associated Press Im vergangenen Jahr wurden Voreingenommenheits- und Transparenzprobleme beim zunehmenden Einsatz von Algorithmen im Kinderhilfesystem des Landes aufgedeckt.

McGuire sagte, die Überprüfung des Themas durch das Gremium von Connecticut sei die erste der US-Kommission für Bürgerrechte oder eines ihrer 56 beratenden Ausschüsse. Die Kommission wurde durch das Civil Rights Act von 1957 als unabhängige, überparteiliche Bundesbehörde zur Ermittlung von Tatsachen eingerichtet.

Befürworter der Verwendung von Algorithmen sagen, dass sie Regierungssysteme durch die Verwendung von Daten gründlicher und effizienter machen.

Der Beratungsausschuss von Connecticut fordert die Gesetzgeber der Bundesstaaten nachdrücklich auf, Gesetze zu verabschieden, die unabhängige Audits von Algorithmen erfordern würden, einschließlich der Bewertung potenzieller Verzerrungen, und im Rahmen der staatlichen Aufzeichnungsgesetze vorschreiben, dass Informationen über die Verwendung von Algorithmen durch Behörden öffentlich zugänglich sind.

Das Büro des demokratischen Gouverneurs Ned Lamont reagierte nicht sofort auf eine Bitte um Stellungnahme. Die Demokraten kontrollieren beide Kammern der Generalversammlung.

In der diesjährigen Legislaturperiode wird es ein Datenschutzgesetz geben, das sich mit der Nutzung von Algorithmen durch die Regierung befasst, sagte Staatssenator James Maroney, ein Milford-Demokrat und Co-Vorsitzender des General Law Committee.

„Algorithmen können uns alle negativ beeinflussen“, sagte er. „Es gibt verschiedene Beispiele für unbeabsichtigte Folgen, sei es manchmal Diskriminierung bei der Einstellung. Es kann das Alter diskriminieren. Wir haben andere Beispiele gesehen, wo Menschen diskriminiert werden, weil sie im Grunde arm sind. … Und dann gibt es leider auch Rassenunterschiede bei einigen Entscheidungen, die bei der Verwendung automatisierter Entscheidungsprozesse getroffen werden.“

Der republikanische Vorsitzende des Senats, Kevin Kelly, und der republikanische Vorsitzende des Repräsentantenhauses, Vincent Candelora, begrüßten eine Überprüfung, wie der Staat Algorithmen einsetzt.

„Die Leute werden vielleicht überrascht sein zu erkennen, dass es nicht Menschen hinter einem Schreibtisch sind, die einige dieser Entscheidungen treffen, sondern sie könnten computergeneriert sein“, sagte Candelora. „Wir müssen wissen, was in die Programme einfließt, die diese Entscheidungen treffen, weil ich glaube, dass es die Politik beeinflusst.“

Das Beratungsgremium von Connecticut wies auf a Bericht der Yale Law School letztes Jahr veröffentlicht, dass bestimmte Behörden in Connecticut keine vollständigen Informationen über ihre Verwendung von Algorithmen als Antwort auf ihre Anfragen nach dem Freedom of Information Act des Staates veröffentlicht haben.

„Die Antworten auf Anfragen zur Informationsfreiheit (FOI) bestätigten sowohl, dass die bestehenden Offenlegungspflichten nicht ausreichen, um eine sinnvolle öffentliche Aufsicht über die Verwendung von Algorithmen zu ermöglichen, als auch, dass die Behörden die Wirksamkeit und Zuverlässigkeit von Algorithmen nicht angemessen bewerten“, heißt es in dem Bericht.

„Die Antworten des FOIA zeigten im Allgemeinen, dass sich die Behörden der potenziellen Probleme ihrer Algorithmen nicht ausreichend bewusst sind und sich über den Mangel an Transparenz keine Sorgen machen“, hieß es.

Die juristische Fakultät sagte, sie habe Informationen zu Algorithmen von den staatlichen Abteilungen für Kinder und Familien, Bildung und Verwaltungsdienste angefordert.

Die Abteilung für Kinder und Familien habe der juristischen Fakultät die einzige vollständige FOIA-Antwort zur Verwendung von Algorithmen zur Identifizierung gefährdeter Kinder übermittelt, sagte die juristische Fakultät. Die Agentur habe grundlegende Informationen offengelegt, aber nicht ihren Quellcode, den die Agentur nach eigenen Angaben nicht habe und als Geschäftsgeheimnis geschützt sei, sagte die juristische Fakultät.

Das Bildungsministerium lieferte nur teilweise Informationen über einen Algorithmus, den es verwendet, um Schüler Schulen zuzuweisen, während das Ministerium für Verwaltungsdienste laut der juristischen Fakultät keine Informationen über einen Algorithmus lieferte, der zur Einstellung von Staatsangestellten und Auftragnehmern verwendet wird.

Ein Sprecher des Ministeriums für Kinder und Familien sagte, die Agentur sei 2021 nach einem Algorithmus gefragt worden, den sie 2019 wegen Personalmangels nicht mehr verwendet habe. Laut DCF war der Algorithmus nicht dazu gedacht, Kinder zu schützen oder unsachgemäße behördliche Eingriffe zu verhindern.

Das Ministerium für Verwaltungsdienste sagte, es arbeite an einer Antwort, und Beamte des Bildungsministeriums antworteten nicht sofort mit einer Nachricht.

source-123

Leave a Reply