Biden erlässt die erste KI-Exekutivverordnung der Nation. Folgendes müssen Sie wissen:


Die Biden-Administration treibt eine einzigartige Durchführungsverordnung zur künstlichen Intelligenz voran, die darauf abzielt, neue „Konsens-Industriestandards“ für die Entwicklung sicherer und vertrauenswürdiger Technologien zu schaffen und neue Leitplanken einzurichten, um potenziell katastrophalen Missbrauch zu verhindern. Heute oberster Befehl markiert einen entscheidenden Wendepunkt in der KI-Regulierung, da sich Gesetzgeber in Regierungen auf der ganzen Welt damit auseinandersetzen, wie Schäden durch die aufkommende und unvorhersehbare Technologie am besten verhindert werden können.

KI-Experten waren am Montag geteilter Meinung. Viele äußerten vorsichtigen Optimismus hinsichtlich der Richtung der Biden-Verordnung, während andere den Ansatz der Regierung kritisierten, weil sie sich zu sehr auf die freiwillige Gunst milliardenschwerer Technologieunternehmen verlasse.

Bidens Anordnung gliedert sich in acht Kategorien:

  • Neue Standards für KI-Sicherheit
  • Schutz der Privatsphäre der Amerikaner
  • Förderung von Gerechtigkeit und Bürgerrechten
  • Für Verbraucher, Patienten und Studierende eintreten
  • Unterstützende Arbeitnehmer
  • Förderung von Innovation und Wettbewerb
  • Förderung der amerikanischen Führung im Ausland
  • Gewährleistung eines verantwortungsvollen und effektiven Einsatzes von KI durch die Regierung

In Bezug auf die Standardfrage werden in der Verordnung große KI-Unternehmen aufgefordert, ihre Sicherheitstestergebnisse mit der Regierung zu teilen und neue Tools zu entwickeln, um sicherzustellen, dass KI-Systeme sicher und vertrauenswürdig sind. Außerdem werden KI-Entwickler aufgefordert, eine Vielzahl neuer Tools und Standards zum Schutz vor allen möglichen Bedrohungen zu entwickeln KI-Doomer-Katastrophenszenarien, von KI-generierten Biowaffen bis hin zu KI-gestütztem Betrug und Cyberangriffen. Die Leiter mehrerer relevanter Regierungsbehörden werden damit beauftragt, einen jährlichen Bericht vorzulegen, in dem die potenziellen Gefahren bewertet werden, die KI für ihre spezifischen Bereiche der kritischen Infrastruktur darstellt. Diese Berichte werden eine Bewertung der Möglichkeiten enthalten, wie KI eingesetzt werden könnte, um die Infrastruktur anfälliger für kritische Ausfälle zu machen.

Künftig müssen KI-Entwickler die Ergebnisse von Sicherheitstests der Bundesregierung mitteilen, wenn festgestellt wird, dass ihre Tools ein nationales Sicherheitsrisiko darstellen könnten. Um diese Anforderungen durchzusetzen, nutzt die Biden-Regierung den ursprünglich 1950 verabschiedeten Defence Production Act.

„Die Nutzung des Defence Production Act zur Regulierung von KI macht die Bedeutung der betrachteten nationalen Sicherheitsrisiken und die Dringlichkeit, die die Regierung zum Handeln empfindet, deutlich“, sagte Caitlin Fennessy, Vizepräsidentin und Chief Knowledge Officer der International Association of Privacy Professionals, in einer per E-Mail gesendeten Erklärung.

Dabei werden Bundesbehörden mit der Privatwirtschaft zusammenarbeiten. Das National Institute of Standards and Technology (NIST) beispielsweise wird für die Entwicklung von Standards für „Red-Teaming“-KI-Modelle verantwortlich sein, bevor sie der Öffentlichkeit zugänglich gemacht werden. Das Energieministerium und das Heimatschutzministerium werden unterdessen die potenziellen Bedrohungen für die Infrastruktur und andere kritische Systeme untersuchen.

Biden fordert neue Initiativen zur Identifizierung von KI-generiertem Material

Künftig sieht die Anordnung vor, dass der Handelsminister Leitlinien für die Kennzeichnung von KI-generierten Inhalten entwickeln muss, eine Praxis, die oft als Wasserzeichen bezeichnet wird. Der Minister muss einen Bericht erstellen, in dem die bestehenden Möglichkeiten zur Identifizierung und Kennzeichnung von KI-generierten Medien sowie alle Instrumente identifiziert werden, die verhindern können, dass generative KI zur Erstellung von Material über sexuellen Missbrauch von Kindern verwendet wird. KI-generierte Inhalte, die Kinder bei sexuellen Handlungen darstellen, haben dies getan begann das Internet zu überfluten aufgrund fehlender klarer Gesetze oder Vorschriften.

Das Weiße Haus hofft, dass dieser Fokus auf Wasserzeichen und ordnungsgemäße Kennzeichnung „den Amerikanern die Gewissheit geben wird, dass die Mitteilungen, die sie von ihrer Regierung erhalten, authentisch sind“, heißt es in einem am Dienstag veröffentlichten Informationsblatt. Sie könnten jedoch noch einen langen Weg vor sich haben. Aktuelle generative KI-Detektoren haben sich als inkonsistent erwiesen. OpenAI kürzlich gab zu, dass sein eigener KI-Textdetektor nicht wirklich funktioniert.

An anderer Stelle konzentriert sich die Anordnung auf die Präventionsbemühungen KI darf nicht zur Diskriminierung von Menschen eingesetzt werden. Ebenso fordert die Anordnung die Entwicklung neuer Standards und Best Practices für die Strafjustiz, um zu bestimmen, wie KI bei der Verurteilung, Bewährung und vorläufigen Entlassung sowie bei der Überwachung und vorausschauenden Polizeiarbeit eingesetzt wird. Der Wortlaut der Verordnung fordert insbesondere keine vollständigen Verbote dieser Anwendungsfälle, auf die einige Datenschützer gehofft hatten.

„Es ist notwendig, diejenigen, die KI entwickeln und einsetzen, zur Einhaltung von Standards zur Rechenschaft zu ziehen, die vor rechtswidriger Diskriminierung und Missbrauch schützen, auch im Justizsystem und in der Bundesregierung“, schrieb die Regierung in einer Kopie der von Gizmodo erhaltenen Durchführungsverordnung. „Nur dann können die Amerikaner darauf vertrauen, dass KI Bürgerrechte, Gerechtigkeit und Gerechtigkeit für alle voranbringt.“

Die Verwaltung sagte weiter, die Bundesregierung wird Maßnahmen ergreifen, um sicherzustellen, dass die von KI-Unternehmen gesammelten Daten und die Speicherung dieser Daten „rechtmäßig und sicher sind und den Datenschutz fördern“. Auch hier steht die Biden-Regierung vor einem harten Kampf. Content-Ersteller verschiedener Medien haben bereits Klage eingereicht OpenAI und andere KI-Hersteller gegen Behauptungen, sie hätten urheberrechtlich geschütztes Material missbräuchlich geerntet, um ihre Algorithmen zu trainieren. Studien haben auch gezeigt, wie KI-Modelle dazu genutzt werden können persönliche Eigenschaften ableiten über vermeintlich anonyme Benutzer.

Die Biden-Anordnung unterstreicht auch, wie wichtig es ist, Arbeitnehmern, von denen viele möglicherweise von KI-Fortschritten betroffen sind, einen Platz am Tisch anzubieten. In der Anordnung heißt es, dass KI-Modelle nicht in einer Weise entwickelt werden sollten, die die Arbeitnehmerrechte untergräbt, die Arbeitsplatzqualität verschlechtert, eine unangemessene Überwachung fördert oder den Wettbewerb auf dem Markt verringert.

Zu diesem Zweck kommt die Biden-Regierung zu spät zur Partei. Große Sprachmodelle im ChatGPT-Stil haben dies bereits getan trug zu Entlassungen bei in einer Vielzahl von Angestelltenbranchen in den letzten Monaten, vom Vertrieb bis Journalismus. Alle Anzeichen deuten darauf hin, dass sich dieser Trend verschlimmert.

Bidens Anordnung widmet der Notwendigkeit, dass die USA mehr KI-Talente aus Übersee anlocken, um im globalen KI-Technologiewettlauf einen Vorsprung zu behalten, ebenfalls viel Raum. Ein Teil dieser Rekrutierungsoffensive besteht darin, die Einwanderungsbeschränkungen zu lockern. Die Anordnung fordert eine Straffung der Visumanträge und -anträge für Nicht-US-Bürger, die an der Arbeit an KI-Projekten in den USA interessiert sind. Außerdem wird der Handelsminister angewiesen, ein Programm in Betracht zu ziehen, das sich auf die Identifizierung und Anwerbung von Top-KI-Talenten auf der ganzen Welt konzentriert.

„Der Fokus auf KI-Governance-Experten und Schulungen wird sicherstellen, dass KI-Sicherheitsmaßnahmen mit dem tiefen Verständnis der Technologie und des Nutzungskontexts entwickelt werden, die erforderlich sind, damit Innovationen auf eine vertrauenswürdige Weise fortgesetzt werden können“, fügte Fennessy hinzu.

Neben den KI-Anwendungen versucht Bidens Anordnung auch, sich mit den Daten zu befassen, die zum Trainieren immer leistungsfähigerer Modelle verwendet werden. Die Anordnung fordert insbesondere Regierungsbehörden dazu auf, zu bewerten, wie sie kommerziell verfügbare Informationen, einschließlich der von Datenbrokern, beschafften Informationen sammeln und verwenden.

Die Ordnung baut sich auf bisherige freiwillige Engagements von sieben der weltweit führenden KI-Unternehmen rund um Wasserzeichen und Testanforderungen. Diese „Verpflichtungen“ laufen im Wesentlichen auf die Selbstkontrolle der Technologiegiganten hinaus. Im Gegensatz dazu verändert diese Anordnung das Gewicht der Führungsfeder, obwohl unklar ist, wie weit Regierungsbehörden gehen werden, um Unternehmen zu bestrafen, die sich nicht an die neuen Richtlinien halten. Wie alle Präsidialverordnungen besteht die Gefahr, dass Bidens KI-Initiativen irrelevant werden, wenn er die Wiederwahl nicht gewinnt und sein Nachfolger beschließt, den Kurs zu ändern.

Dennoch, der stellvertretende Stabschef des Weißen Hauses, Bruce Reed sagte CNBC Er glaubt, dass diese und andere in der Anordnung enthaltene Richtlinien „die stärksten Maßnahmen darstellen, die jemals eine Regierung der Welt in Bezug auf Sicherheit, Schutz und Vertrauen in der KI ergriffen hat“.

Experten sagen, dass die Anordnung ein Schritt in die richtige Richtung ist, es sind jedoch weitere konkrete politische Details erforderlich

KI-Experten auf diesem Gebiet reagierten bisher mit vorsichtigem Optimismus auf die Anordnung. Der Biden-Anordnung mag es zwar an konkreten Details mangeln, sie signalisiert aber dennoch einen „gesamtstaatlichen“ Ansatz zur Bekämpfung der KI-Regulierung. Das ist besonders beruhigend, wenn man bedenkt, wie schwierig es ist, in einem politisch gespaltenen Kongress sinnvolle KI-Gesetze zu verabschieden.

„Die Executive Order scheint auf dem besten Weg zu sein, eine bemerkenswerte gesamtstaatliche Anstrengung zur Unterstützung der verantwortungsvollen Entwicklung und Steuerung von KI darzustellen“, sagte Alexandra Reeve Givens, CEO des Center for Democracy and Technology, in einer per E-Mail gesendeten Erklärung. „Es ist bemerkenswert, dass sich die Regierung sowohl auf die aufkommenden Risiken ausgefeilter Stiftungsmodelle als auch auf die vielfältigen Auswirkungen von KI-Systemen auf die Rechte der Menschen konzentriert – ein entscheidender Ansatz, der auf die vielen Bedenken reagiert, die von Experten und Befürwortern des öffentlichen Interesses geäußert werden.“

Doch nicht alle waren mit der Bestellung zufrieden. Datenschützer kritisierten die langwierige Anordnung, weil sie sich weigerte, auf die eine oder andere Weise eine stärkere Position zur Wirksamkeit von KI-Modellen einzunehmen, die bereits zur Überwachung oder Diskriminierung von Amerikanern eingesetzt wurden. Einige, wie Mozilla-Präsident Mark Surman, stellten auch die mangelnde Betonung der Verordnung auf Open-Source-KI-Initiativen in Frage, die einen großen Bereich der Divergenz zwischen KI-Herstellern wie Meta und Google darstellten.

„Ich wünschte, wir hätten in der Executive Order etwas zu Open Source und Open Science gesehen“, sagte Surman in einer per E-Mail gesendeten Erklärung. „Offenheit und Transparenz sind der Schlüssel, wenn wir wollen, dass die Vorteile der KI die Mehrheit der Menschheit erreichen, anstatt sie nur auf Anwendungsfälle anzuwenden, bei denen Profit der Hauptmotivator ist.“

Andere, wie Albert Fox Cahn, Geschäftsführer des Surveillance Technology Oversight Project, kritisierten die Anordnung und argumentierten, sie sei eine verpasste Gelegenheit, eine harte Haltung gegenüber invasiven KI-Technologien wie Gesichtserkennung und anderen biometrischen Überwachungssystemen einzunehmen.

„Viele Formen der KI sollten einfach nicht auf den Markt gebracht werden“, sagte Fox Cahn in einer Erklärung. „Und viele dieser Vorschläge sind lediglich Regulierungstheater, das es missbräuchlicher KI ermöglicht, auf dem Markt zu bleiben.

Am kritischsten ist vielleicht, dass der umfassenden Durchführungsverordnung immer noch einiges an Durchschlagskraft fehlt, um KI-Firmen tatsächlich zur Rechenschaft zu ziehen. Vorerst hofft die Bundesregierung, dass sie im Gleichschritt mit großen KI-Firmen zusammenarbeiten kann, von denen einige offenbar bestrebt sind, das Technologieethos „Schnell handeln und Dinge kaputt machen“ zu verkörpern.

„Das Weiße Haus macht weiterhin den Fehler, sich zu sehr auf KI-Prüftechniken zu verlassen, die von Unternehmen und Behörden leicht manipuliert werden können“, fügte Fox Cahn hinzu.

Update 16:45 Uhr EST: Details aus der Executive Order und Aussagen von KI-Experten hinzugefügt.

source-113

Leave a Reply