Bidens KI-Durchführungsverordnung „sicherlich herausfordernd“ für Open-Source-KI – Brancheninsider

US-Präsident Joe Biden hat am 30. Oktober eine langwierige Durchführungsverordnung erlassen, die Bürger, Regierungsbehörden und Unternehmen durch die Gewährleistung von Sicherheitsstandards für künstliche Intelligenz (KI) schützen soll.

Mit der Verordnung wurden sechs neue Standards für die KI-Sicherheit sowie Absichten für eine ethische KI-Nutzung in Regierungsbehörden festgelegt. Biden sagte, die Anordnung stehe im Einklang mit den Grundsätzen der Regierung „Sicherheit, Vertrauen, Offenheit“.

Dazu gehören weitreichende Vorgaben, etwa die Weitergabe der Ergebnisse von Sicherheitstests an Beamte von Unternehmen, die „jedes Gründungsmodell entwickeln, das eine ernsthafte Gefahr für die nationale Sicherheit, die nationale wirtschaftliche Sicherheit oder die nationale öffentliche Gesundheit und Sicherheit darstellt“, und „die Beschleunigung der Entwicklung und Nutzung“. von Techniken zum Schutz der Privatsphäre.“

Der Mangel an Details, die den Aussagen beigefügt sind, hat jedoch viele in der Branche dazu veranlasst, sich zu fragen, wie dies möglicherweise Unternehmen davon abhalten könnte, erstklassige Modelle zu entwickeln.

Adam Struck, Gründungspartner von Struck Capital und KI-Investor, sagte gegenüber Cointelegraph, dass die Anordnung ein gewisses Maß an „Ernsthaftigkeit hinsichtlich des Potenzials von KI zur Umgestaltung jeder Branche“ zeige.

Er wies auch darauf hin, dass es für Entwickler schwierig sei, zukünftige Risiken gemäß der Gesetzgebung auf der Grundlage von Annahmen über Produkte zu antizipieren, die noch nicht vollständig entwickelt seien.

„Dies ist sicherlich eine Herausforderung für Unternehmen und Entwickler, insbesondere in der Open-Source-Community, wo die Executive Order weniger direktiv war.“

Er sagte jedoch, dass die Absicht der Regierung, die Richtlinien durch Leiter von KI- und KI-Governance-Gremien in bestimmten Regulierungsbehörden zu verwalten, bedeute, dass Unternehmen, die innerhalb dieser Behörden Modelle entwickeln, ein „genaues Verständnis der regulatorischen Rahmenbedingungen“ dieser Behörde haben sollten.

„Unternehmen, die weiterhin Wert auf Datenkonformität und Datenschutz sowie unvoreingenommene algorithmische Grundlagen legen, sollten innerhalb eines Paradigmas agieren, mit dem die Regierung zufrieden ist.“

Die Regierung hat es bereits getan freigegeben über 700 Anwendungsfälle zur internen Nutzung von KI über die Website „ai.gov“.

Martin Casado, Komplementär der Risikokapitalgesellschaft Andreessen Horowitz, veröffentlichte auf Quell-KI.

„Wir sind der festen Überzeugung, dass Open Source die einzige Möglichkeit ist, Software sicher und frei von Monopolen zu halten. Bitte helfen Sie, es zu verstärken“, schrieb er.

In dem Schreiben wurde die Executive Order in ihrer Definition bestimmter KI-Modelltypen als „zu weit gefasst“ bezeichnet und die Befürchtung geäußert, dass kleinere Unternehmen sich in den Anforderungen anderer, größerer Unternehmen verheddern könnten.

Auch Jeff Amico, der Betriebsleiter von Gensyn, äußerte eine ähnliche Meinung und bezeichnete die Lage als schrecklich für die Innovation in den USA

Verwandt: Adobe, IBM und Nvidia schließen sich den Bemühungen von US-Präsident Biden an, KI-Missbrauch zu verhindern

Auch Struck hob diesen Punkt hervor und sagte, dass regulatorische Klarheit zwar „hilfreich für Unternehmen sein kann, die KI-orientierte Produkte entwickeln“, es aber auch wichtig ist zu beachten, dass sich die Ziele von „Big Tech“ wie OpenAI oder Anthropic stark von denen der KI im Seed-Stadium unterscheiden Startups.

„Ich würde mir wünschen, dass die Interessen dieser Unternehmen im Frühstadium in den Gesprächen zwischen der Regierung und dem Privatsektor vertreten werden, da so sichergestellt werden kann, dass die Regulierungsrichtlinien nicht nur für die größten Unternehmen der Welt übermäßig günstig sind.“

Matthew Putman, der CEO und Mitbegründer von Nanotronics – einem weltweit führenden Anbieter von KI-gestützter Fertigung – erklärte gegenüber Cointelegraph ebenfalls, dass die Anordnung einen Bedarf an regulatorischen Rahmenbedingungen signalisiere, die die Verbrauchersicherheit und die ethische Entwicklung von KI auf breiterer Ebene gewährleisten.

„Wie diese Regulierungsrahmen nun umgesetzt werden, hängt von den Interpretationen und Maßnahmen der Regulierungsbehörden ab“, sagte er.

„Wie wir bei Kryptowährungen gesehen haben, haben strenge Einschränkungen die Erforschung potenziell revolutionärer Anwendungen behindert.“

Putman sagte, dass die Ängste vor dem „apokalyptischen“ Potenzial der KI „im Vergleich zu ihren Aussichten auf kurzfristige positive Auswirkungen übertrieben“ seien.

Er sagte, dass es für diejenigen, die nicht direkt an der Entwicklung der Technologie beteiligt sind, einfacher sei, Narrative rund um die hypothetischen Gefahren zu konstruieren, ohne die „wirklich innovativen“ Anwendungen zu beobachten, die seiner Meinung nach außerhalb der Öffentlichkeit stattfinden.

Industrien, darunter fortschrittliche Fertigung, Biotechnologie und Energie, treiben nach Putmans Worten „eine Nachhaltigkeitsrevolution voran“ mit neuen autonomen Prozesssteuerungen, die die Erträge erheblich verbessern und Abfall und Emissionen reduzieren.

„Ohne die gezielte Erforschung neuer Methoden wären diese Innovationen nicht entdeckt worden. Einfach ausgedrückt: Die Wahrscheinlichkeit, dass KI uns nützt, ist weitaus größer, als dass sie uns zerstört.“

Während die Durchführungsverordnung noch frisch ist und Brancheninsider sich beeilen, ihre Absichten zu analysieren, haben das US-amerikanische National Institute of Standards and Technology und das Handelsministerium bereits damit begonnen, Mitglieder für das neu gegründete Artificial Intelligence Safety Institute Consortium zu werben.

Zeitschrift: „KI hat die Branche getötet“: EasyTranslate-Chef über die Anpassung an Veränderungen