Der KI-Gesetz vs. Deepfakes: Ein Fortschritt, aber reicht er aus?


Wirksame Durchsetzungsmechanismen zur Bekämpfung von Deepfakes seien angesichts des transnationalen Charakters von Deepfakes und des Potenzials zur Umgehung von Vorschriften von entscheidender Bedeutung, schreibt Cristina Vanberghen.

Prof. Dr. Cristina Vanberghen ist eine internationale Rechtspraktikerin und Wissenschaftlerin im Bereich Digitalisierung.

Da in der Hälfte der Welt Wahlen bevorstehen, ist das Potenzial von Deepfakes, Zwietracht zu säen und das Vertrauen in Institutionen zu untergraben, größer denn je. Das ist die erschreckende Realität von Deepfakes, KI-generierten Inhalten, die mit alarmierender Genauigkeit jeden nachahmen können.

Während Entwickler argumentieren, dass sich ihre Technologie weiterentwickelt und Fehler unvermeidlich sind, stellt der rasante Anstieg von Deepfakes, insbesondere solchen, die für sexuelle Belästigung, Betrug und politische Manipulation eingesetzt werden, eine existenzielle Bedrohung für demokratische Prozesse und den öffentlichen Diskurs dar.

Es werden Anstrengungen unternommen, um dieser Bedrohung entgegenzuwirken. Initiativen wie das „Tech Accord to Combat Deceptive Use of AI in 2024 Elections“ auf der Münchner Sicherheitskonferenz (MSC) stellen einen lobenswerten Versuch dar, den Herausforderungen durch Deepfakes in Wahlprozessen zu begegnen.

Durch die Vereinigung führender Technologieunternehmen stellt das Abkommen eine einheitliche Haltung gegenüber böswilligen Akteuren dar und zeigt die gemeinsame Entschlossenheit, das Problem anzugehen. Der Fokus des Abkommens auf die Wahlen im Jahr 2024 könnte jedoch die laufende Entwicklung der Deepfake-Bedrohung außer Acht lassen und möglicherweise Anpassungen über den festgelegten Zeitrahmen hinaus erforderlich machen.

Die Wirksamkeit des Abkommens hängt von seiner Fähigkeit ab, mit diesen Entwicklungen Schritt zu halten. Das Abkommen legt zwar Leitprinzipien fest, es fehlen jedoch konkrete Mechanismen zur Durchsetzung. Die Gewährleistung der Rechenschaftspflicht der teilnehmenden Unternehmen ist für sinnvolle Fortschritte von entscheidender Bedeutung.

Das Vertrauen auf die Selbstregulierung von Technologieunternehmen wirft Bedenken hinsichtlich möglicher Verzerrungen bei der Umsetzung auf und unterstreicht die Notwendigkeit einer transparenten und unparteiischen Aufsicht.

Topform

In der EU werden Deepfakes durch das KI-Gesetz reguliert. Anstatt Deepfakes gänzlich zu verbieten, verfolgt das vorgeschlagene KI-Gesetz einen anderen Ansatz. Gemäß Artikel 52 Absatz 3 wird von den Urhebern Transparenz gefordert.

Das bedeutet, dass jeder, der einen Deepfake erstellt oder verbreitet, dessen künstlichen Ursprung offenlegen und Auskunft über die verwendeten Techniken geben muss. Ziel ist es, den Verbrauchern Wissen über die Inhalte zu vermitteln, auf die sie stoßen, und sie weniger anfällig für Manipulationen zu machen.

Transparenz allein reicht jedoch möglicherweise nicht aus, um das bösartige Potenzial von Deepfakes zu bekämpfen, insbesondere wenn die Urheber Möglichkeiten finden, die Offenlegungspflichten zu umgehen. Vieles bleibt ungewiss, insbesondere hinsichtlich der rechtlichen Haftung und der Frage, ob der aktuelle Rahmen ausreicht, um den sich entwickelnden Risiken von Deepfakes zu begegnen.

Die Einrichtung des EU-KI-Büros am 21. Februar 2024 stellt einen bedeutenden Schritt zur Förderung verantwortungsvoller KI-Praktiken innerhalb der Europäischen Union dar.

Eine der Hauptaufgaben des KI-Büros besteht darin, die Entwicklung von Verhaltenskodizes auf Unionsebene zu fördern und zu erleichtern, um die wirksame Umsetzung von Verpflichtungen im Zusammenhang mit der Erkennung und Kennzeichnung künstlich erzeugter oder manipulierter Inhalte zu erleichtern.

Im Rahmen dieses Mandats ist die Kommission befugt, Durchführungsrechtsakte zur Genehmigung dieser Verhaltenskodizes zu erlassen. Dieser Regulierungsmechanismus stellt sicher, dass Verhaltenskodizes bestimmte Standards erfüllen und die Herausforderungen, die durch künstlich generierte oder manipulierte Inhalte entstehen, wirksam bewältigen.

Wenn die Kommission außerdem einen bestimmten Verhaltenskodex für unzureichend hält, ist sie befugt, Durchführungsrechtsakte zu erlassen, um etwaige Mängel zu beheben.

Insgesamt schlägt die EU-Gesetzgebung einen proaktiven Ansatz zur Bekämpfung von Deepfakes und KI-generierten Texten vor. Es gibt jedoch umstrittene Fragen wie Klarheit und Spezifität. Die Definitionen von „Deepfake“ und „künstlerischer/kreativer Arbeit“ könnten einer weiteren Klärung bedürfen.

Darüber hinaus hängt die Wirksamkeit der Offenlegungspflichten von starken Durchsetzungsmechanismen ab. Auch die Abwägung zwischen Transparenz und der potenziell erstickenden Wirkung auf den künstlerischen Ausdruck erfordert sorgfältige Überlegungen.

Deepfakes werden derzeit im KI-Gesetz als KI-Systeme mit „begrenztem Risiko“ eingestuft. Dies bedeutet, dass sie im Vergleich zu „Hochrisiko“-Systemen wie medizinischer KI oder Gesichtserkennung weniger Vorschriften unterliegen.

Allerdings können Deepfakes erhebliche schädliche Auswirkungen haben und sollten als hochriskant eingestuft werden.

Das KI-Gesetz schafft derzeit keinen klaren Rahmen für die rechtliche Haftung von Entwicklern von Deepfake-Technologie. Das Gesetz legt den Schwerpunkt eher auf vorbeugende als auf strafende Maßnahmen. Dies könnte bedeuten, dass Entwickler verpflichtet werden, technische Schutzmaßnahmen gegen Deepfake-Missbrauch zu implementieren, wie z. B. robuste Wasserzeichen oder Erkennungsalgorithmen.

Das Fehlen eines klaren Haftungsrahmens lässt die Frage offen, wer für Deepfake-Missbrauch verantwortlich ist.

Während das EU-KI-Gesetz einen bedeutenden Schritt zur Regulierung künstlicher Intelligenzsysteme darstellt, einschließlich solcher, die Deepfakes erzeugen können, ist es verständlich, dass einige es möglicherweise als unzureichend ansehen, um die spezifischen Herausforderungen zu bewältigen, die sich aus der böswilligen Verwendung von Deepfakes ergeben.

Sich für die Kriminalisierung von Deepfakes für Endnutzer einzusetzen, könnte ein Ansatz sein, die schädlichen Auswirkungen dieser Technologie abzumildern.

Durch die Verhängung rechtlicher Konsequenzen für Personen, die Deepfakes in böswilliger Absicht erstellen oder verbreiten, können politische Entscheidungsträger die Verbreitung schädlicher Inhalte verhindern und die Täter für ihre Handlungen zur Verantwortung ziehen.

Die Kriminalisierung von Deepfakes könnte auch als Abschreckung gegen den Missbrauch dieser Technologie für betrügerische Aktivitäten, politische Manipulation oder andere böswillige Zwecke dienen. Die Bewältigung dieser dringenden Herausforderung erfordert die Umsetzung robuster rechtlicher Maßnahmen.

Beispielsweise sollte es strikte Verbote für die Erstellung und Verbreitung von Deepfake-Kinderpornografie geben, auch wenn fiktive Kinder dargestellt werden.

Darüber hinaus müssen strafrechtliche Sanktionen gegen diejenigen verhängt werden, die wissentlich schädliche Deepfakes erstellen oder deren Verbreitung erleichtern.

Darüber hinaus ist es zwingend erforderlich, dass Softwareentwickler und -vertreiber Maßnahmen ergreifen, um die Entstehung schädlicher Deepfakes durch ihre Audio- und Videoprodukte zu verhindern.

Es sollten Maßnahmen zur Rechenschaftspflicht durchgesetzt werden, um sicherzustellen, dass diese Präventivmaßnahmen wirksam sind und nicht leicht umgangen werden können. Die politischen Entscheidungsträger müssen die Notwendigkeit, den Einzelnen vor den Schäden von Deepfakes zu schützen, sorgfältig mit Überlegungen zur freien Meinungsäußerung, zum Recht auf Privatsphäre und zu technologischen Innovationen abwägen.

Darüber hinaus werden wirksame Durchsetzungsmechanismen und internationale Zusammenarbeit von entscheidender Bedeutung sein, um den grenzüberschreitenden Charakter von Deepfake-bezogenen Bedrohungen zu bekämpfen.

Angesichts des transnationalen Charakters von Deepfakes und des Potenzials zur Umgehung von Vorschriften sind wirksame Durchsetzungsmechanismen von entscheidender Bedeutung. Die Definition und Identifizierung bösartiger Deepfakes kann eine Herausforderung sein und erfordert sorgfältige rechtliche Rahmenbedingungen und differenzierte Durchsetzungsstrategien.

In diesem Zusammenhang sorgfältig ausgearbeitete Gesetze haben das Potenzial, sozial verantwortliche Praktiken in Unternehmen zu fördern, ohne sie übermäßig zu belasten. Zeit für modernste KI-gestützte Erkennungstools und strenge rechtliche Rahmenbedingungen, um Täter für ihre schändlichen Taten zur Verantwortung zu ziehen.

Gleichzeitig ist es von entscheidender Bedeutung, der Öffentlichkeit digitale Kompetenz und Fähigkeiten zum kritischen Denken zu vermitteln, damit sie effektiv zwischen Wahrheit und Manipulation unterscheiden kann.



source-127

Leave a Reply