Das KI-Gesetz der EU könnte einen abschreckenden Effekt auf die Open-Source-Bemühungen haben, warnen Experten


Die überparteiliche Denkfabrik Brookings diese Woche veröffentlicht ein Artikel, der die Regulierung der Open-Source-KI durch den Block anprangert und argumentiert, dass dies eine rechtliche Haftung für Allzweck-KI-Systeme schaffen und gleichzeitig ihre Entwicklung untergraben würde. Nach dem Entwurf des EU-KI-Gesetzes müssten Open-Source-Entwickler Richtlinien für Risikomanagement, Datenverwaltung, technische Dokumentation und Transparenz sowie Genauigkeits- und Cybersicherheitsstandards einhalten.

Wenn ein Unternehmen ein Open-Source-KI-System einsetzt, das zu einem katastrophalen Ergebnis führt, so der Autor, ist es nicht unvorstellbar, dass das Unternehmen versuchen könnte, die Verantwortung abzulenken, indem es die Open-Source-Entwickler verklagt, auf denen sie ihr Produkt aufgebaut haben.

„Dies könnte die Macht über die Zukunft der KI in großen Technologieunternehmen weiter konzentrieren und Forschung verhindern, die für das Verständnis der Öffentlichkeit von KI entscheidend ist“, schrieb Alex Engler, Analyst bei Brookings, der den Artikel veröffentlichte. „Am Ende ist die [E.U.’s] Der Versuch, Open Source zu regulieren, könnte eine verworrene Reihe von Anforderungen schaffen, die Open-Source-KI-Beitragende gefährden, wahrscheinlich ohne die Nutzung von Allzweck-KI zu verbessern.“

Im Jahr 2021 veröffentlichte die Europäische Kommission – die politisch unabhängige Exekutive der EU – den Text des KI-Gesetzes, das darauf abzielt, den Einsatz einer „vertrauenswürdigen KI“ in der EU zu fördern, da sie vor einer Abstimmung in diesem Herbst Beiträge von der Industrie einholt, EU. Institutionen versuchen, Änderungen an den Vorschriften vorzunehmen, die versuchen, Innovation mit Rechenschaftspflicht in Einklang zu bringen. Aber nach Ansicht einiger Experten würde das KI-Gesetz in seiner geschriebenen Form belastende Anforderungen an offene Bemühungen zur Entwicklung von KI-Systemen stellen.

Die Gesetzgebung enthält Carve-Outs für etwas Kategorien von Open-Source-KI, wie solche, die ausschließlich für Forschungszwecke verwendet werden, und mit Kontrollen zur Verhinderung von Missbrauch. Aber wie Engler feststellt, wäre es schwierig – wenn nicht unmöglich – zu verhindern, dass diese Projekte in kommerzielle Systeme gelangen, wo sie von böswilligen Akteuren missbraucht werden könnten.

In einem aktuellen Beispiel wurde Stable Diffusion, ein Open-Source-KI-System, das Bilder aus Texteingabeaufforderungen generiert, mit einer Lizenz veröffentlicht, die bestimmte Arten von Inhalten verbietet. Aber es fand schnell ein Publikum in Communities, die solche KI-Tools verwenden, um pornografische Deepfakes von Prominenten zu erstellen.

Oren Etzioni, der Gründungs-CEO des Allen Institute for AI, stimmt zu, dass der aktuelle Entwurf des KI-Gesetzes problematisch ist. In einem E-Mail-Interview mit TechCrunch sagte Etzioni, dass die durch die Regeln eingeführten Belastungen eine abschreckende Wirkung auf Bereiche wie die Entwicklung offener Textgenerierungssysteme haben könnten, von denen er glaubt, dass sie es Entwicklern ermöglichen, zu Big Tech-Unternehmen wie Google „aufzuholen“. und Meta.

„Der Weg in die Regulierungshölle ist mit den guten Absichten der EU gepflastert“, sagte Etzioni. „Open-Source-Entwickler sollten nicht der gleichen Belastung ausgesetzt sein wie diejenigen, die kommerzielle Software entwickeln. Es sollte immer so sein, dass kostenlose Software „wie besehen“ bereitgestellt werden kann – denken Sie an den Fall, dass ein einzelner Schüler eine KI-Fähigkeit entwickelt; Sie können es sich nicht leisten, die EU-Vorschriften einzuhalten, und sind möglicherweise gezwungen, ihre Software nicht zu vertreiben, was sich negativ auf den akademischen Fortschritt und die Reproduzierbarkeit wissenschaftlicher Ergebnisse auswirkt.“

Anstatt zu versuchen, KI-Technologien breit zu regulieren, sollten sich EU-Regulierungsbehörden auf spezifische Anwendungen von KI konzentrieren, argumentiert Etzioni. „Es gibt zu viele Unsicherheiten und schnelle Veränderungen in der KI, als dass der langsame Regulierungsprozess effektiv sein könnte“, sagte er. „Stattdessen sollten KI-Anwendungen wie autonome Fahrzeuge, Bots oder Spielzeug reguliert werden.“

Nicht jeder Praktiker hält das KI-Gesetz für weiteren Änderungsbedarf. Mike Cook, ein KI-Forscher, der Teil der ist Messer und Pinsel Collective findet es „völlig in Ordnung“, Open-Source-KI „etwas stärker“ als nötig zu regulieren. Jede Art von Standard zu setzen, kann eine Möglichkeit sein, weltweit Führung zu zeigen, postuliert er – und hoffentlich andere ermutigen, es ihm gleichzutun.

„Die Panikmache über ‚Innovationsunterdrückung’ kommt hauptsächlich von Leuten, die alle Vorschriften abschaffen und freie Hand haben wollen, und das ist im Allgemeinen keine Ansicht, auf die ich viel Wert lege“, sagte Cook. „Ich denke, es ist in Ordnung, im Namen einer besseren Welt Gesetze zu erlassen, anstatt sich Gedanken darüber zu machen, ob Ihr Nachbar weniger regulieren wird als Sie und irgendwie davon profitieren wird.“

Wie meine Kollegin Natasha Lomas bereits angemerkt hat, listet der risikobasierte Ansatz der EU nämlich mehrere verbotene Verwendungen von KI auf (z die mit der Strafverfolgung zu tun haben. Wenn die Vorschriften auf Produkttypen und nicht auf Produktkategorien abzielen würden (wie Etzioni argumentiert), könnten Tausende von Vorschriften erforderlich sein – eine für jeden Produkttyp –, was zu Konflikten und noch größerer regulatorischer Unsicherheit führen würde.

Eine Analyse geschrieben von Lilian Edwards, Rechtsprofessorin an der Newcastle School und nebenberufliche Rechtsberaterin am Ada Lovelace Institute, stellt in Frage, ob die Anbieter von Systemen wie Open-Source-Large-Language-Models (z. B. GPT-3) nicht doch unter der KI haften könnten Gesetz. Die Sprache in der Gesetzgebung erlegt den nachgelagerten Betreibern die Verantwortung auf, die Verwendung und Auswirkungen eines KI-Systems zu verwalten, sagt sie – nicht unbedingt der ursprüngliche Entwickler.

„[T]Die Art und Weise, wie nachgelagerte Deployer verwenden [AI] und anzupassen, kann genauso wichtig sein wie der ursprüngliche Aufbau“, schreibt sie. „Das KI-Gesetz nimmt dies zwar zur Kenntnis, aber nicht annähernd genug, und regelt daher die vielen Akteure, die sich auf verschiedene Weise ‚nachgelagert‘ in der KI-Lieferkette engagieren, nicht angemessen.“

Beim KI-Startup Hugging Face sagen CEO Clément Delangue, Berater Carlos Muñoz Ferrandis und Politikexpertin Irene Solaiman, dass sie Vorschriften zum Schutz der Verbraucher begrüßen, aber dass das vorgeschlagene KI-Gesetz zu vage sei. Sie sagen zum Beispiel, es sei unklar, ob die Gesetzgebung für die „vortrainierten“ maschinellen Lernmodelle gelten würde, die das Herzstück von KI-gestützter Software bilden, oder nur für die Software selbst.

„Dieser Mangel an Klarheit, gepaart mit der Nichteinhaltung laufender Community-Governance-Initiativen wie offenen und verantwortungsvollen KI-Lizenzen, könnte vorgelagerte Innovationen an der Spitze der KI-Wertschöpfungskette behindern, was für uns bei Hugging Face ein großer Schwerpunkt ist. “, sagten Delangue, Ferrandis und Solaiman in einer gemeinsamen Erklärung. „Aus Wettbewerbs- und Innovationsperspektive riskieren Sie, wenn Sie offen veröffentlichten Funktionen an der Spitze des KI-Innovationsstroms zu viel Last auferlegen, inkrementelle Innovation, Produktdifferenzierung und dynamischen Wettbewerb zu behindern, wobei letzterer in aufstrebenden Technologiemärkten wie KI von zentraler Bedeutung ist -bezogene … Die Verordnung sollte die Innovationsdynamik von KI-Märkten berücksichtigen und somit Kernquellen der Innovation in diesen Märkten klar identifizieren und schützen.“

Was Hugging Face betrifft, setzt sich das Unternehmen für verbesserte KI-Governance-Tools ein, unabhängig von der endgültigen Sprache des KI-Gesetzes, wie „verantwortungsbewusste“ KI-Lizenzen und Modellkarten, die Informationen wie die beabsichtigte Verwendung eines KI-Systems und seine Funktionsweise enthalten. Delangue, Ferrandis und Solaiman weisen darauf hin, dass die verantwortungsvolle Lizenzierung allmählich zu einer gängigen Praxis für große KI-Veröffentlichungen wie Meta wird OPT-175-Sprachmodell.

„Offene Innovation und verantwortungsvolle Innovation im Bereich der KI schließen sich nicht gegenseitig aus, sondern ergänzen sich“, sagten Delangue, Ferrandis und Solaiman. „Die Schnittstelle zwischen beiden sollte ein zentrales Ziel für die laufenden Regulierungsbemühungen sein, wie es gerade für die KI-Community der Fall ist.“

Das kann durchaus erreichbar sein. Angesichts der vielen beweglichen Teile, die an der EU-Regelung beteiligt sind (ganz zu schweigen von den davon betroffenen Interessengruppen), wird es wahrscheinlich Jahre dauern, bis die KI-Regulierung im Block Gestalt annimmt.

source-116

Leave a Reply