Es sieht ganz danach aus, als ob Regierungen der KI-Überwachung freien Lauf lassen wollen


Allem Anschein nach scheint das KI-Gesetz der Europäischen Union etwas zu sein, das Technikethiker glücklich machen würde. Der wegweisendes Gesetz zur künstlichen Intelligenz, das diese Woche einen großen Gesetzgebungssieg feierte, zielt darauf ab, einen umfassenden Regulierungsrahmen einzuführen, der die durch die neue Technologie verursachten Schäden bekämpft. In seiner jetzigen Form würde das Gesetz einiges unternehmen, um KI in den Ländern, in denen sie eingesetzt wird, transparenter, integrativer und verbraucherfreundlicher zu machen. Was kann man daran nicht mögen, oder?

Unter anderem würde das KI-Gesetz umstrittene Nutzungen von KI verbieten, die es als „Hochrisiko“-Systeme einstuft. Dazu gehören beispielsweise Emotionserkennungssysteme am Arbeitsplatz und in Schulen sowie soziale Bewertungssysteme, die in China so weit verbreitet sind. Gleichzeitig enthält das Gesetz auch Sicherheitsvorkehrungen, die Unternehmen, die Medieninhalte mit KI generieren, dazu zwingen würden, diese Nutzung den Verbrauchern offenzulegen.

Am Montag trafen sich die Aufsichtsbehörden der drei Zweigstellen des Blocks eine vorläufige Einigung über das Gesetzwas bedeutet, dass es mangels einer besseren Formulierung beschlossene Sache ist.

Und doch weist das neue Gesetz trotz einiger politischer Erfolge erhebliche Schwachstellen auf, die zivilgesellschaftliche Gruppen mehr als nur beunruhigen.

Damini Satija, Leiterin des Algorithmic Accountability Lab bei Amnesty International, sagte, dass ihre Organisation und andere die Entwicklung des KI-Gesetzes in den letzten Jahren sorgfältig beobachtet hätten und dass das neue Gesetz zwar viel Grund zum Feiern gebe, dies aber nicht sei genug.

Tatsächlich ist es das des Europäischen Parlaments Pressemitteilung Zum Grundsatzgesetz räumt man ein, dass es „enge Ausnahmen“ gibt [exist] für den Einsatz biometrischer Identifikationssysteme (RBI)“ – mit anderen Worten polizeiliche Massenüberwachungstechnologie – „in öffentlich zugänglichen Räumen für Strafverfolgungszwecke, vorbehaltlich vorheriger richterlicher Genehmigung und für streng definierte Kriminalitätslisten.“ Im Rahmen dieser Ausnahmegenehmigung erlaubt das Gesetz der Polizei den Einsatz Live-Gesichtserkennungstechnologie– ein umstrittenes Werkzeug als „Orwellianer“ bezeichnet für seine Fähigkeit, Mitglieder der Öffentlichkeit zu überwachen und zu katalogisieren – in Fällen, in denen es verwendet wird, um „eine bestimmte und gegenwärtige terroristische Bedrohung“ zu verhindern oder jemanden zu identifizieren oder zu finden, der einer Straftat verdächtigt wird.

Wie zu erwarten ist, scheint dies für Gruppen wie Amnesty ein ziemlich großer blinder Fleck zu sein. Aus Sicht der Kritiker ist nicht abzusehen, wie der Einsatz dieser Technologien durch die Strafverfolgungsbehörden in Zukunft zunehmen könnte. „Ausnahmen zur nationalen Sicherheit sind – wie wir aus der Geschichte wissen – oft nur eine Möglichkeit für Regierungen, recht umfangreiche Überwachungssysteme einzuführen“, sagte Satija.

Satija stellt außerdem fest, dass das EU-Recht in einem anderen kritischen Bereich versagt hat. Während das Gesetz insbesondere bestimmte Arten von „Hochrisiko“-KI verbietet, verbietet es nicht den Export dieser KI in andere Länder. Mit anderen Worten: Während die meisten Europäer bestimmten umstrittenen Überwachungsprodukten nicht ausgesetzt sein werden, können Unternehmen in der EU diese Tools an andere Länder außerhalb der Union verkaufen. Amnestie hat ausdrücklich darauf hingewiesen zum Verkauf von Überwachungsprodukten durch EU-Unternehmen an die chinesische Regierung zur Überwachung der uigurischen Bevölkerung sowie an Israel zur Aufrechterhaltung der Kontrolle über die Palästinenser.

In den letzten Wochen hat Amnestys Advocacy-Berater für KI, Mher Hakobyan, mehrere veröffentlicht Aussagen Aspekte des Gesetzes verurteilen. In Bezug auf die Ausnahmeregelungen für die Strafverfolgung sagte Hakobyan, dass der Block grünes Licht für die „dystopische digitale Überwachung in den 27 EU-Mitgliedstaaten gegeben und damit weltweit einen verheerenden Präzedenzfall für die Regulierung künstlicher Intelligenz (KI) geschaffen“ habe. Die Haltung des Gesetzes gegenüber Exporten zeige hingegen „eine eklatante Doppelmoral seitens der EU-Gesetzgeber, die einerseits die EU als weltweit führend bei der Förderung „sicherer, vertrauenswürdiger und ethischer künstlicher Intelligenz“ darstellen und andererseits Andererseits weigern sie sich, EU-Unternehmen daran zu hindern, rechtsverletzende KI-Systeme an den Rest der Welt zu verkaufen.“ er sagte.

Andere Gruppen äußerten ähnliche Kritik. Christoph Schmon, International Policy Director der Electronic Frontier Foundation, sagte, dass Teile des neuen Gesetzes zwar „vielversprechend“ aussähen, sein Ansatz in Bezug auf Strafverfolgungstechnologien jedoch besorgniserregend sei.

„Die endgültige Fassung des Abkommens ist noch in Bearbeitung, aber es ist offensichtlich, dass die neuen Vorschriften zur biometrischen Überwachung trotz vieler vielversprechender Formulierungen zum Schutz der Grundrechte viele Fragen offen lassen“, sagte Schmon in einer E-Mail. „Wir haben immer gesagt, dass die Gesichtserkennung durch Regierungen eine inhärente Bedrohung für die Privatsphäre des Einzelnen, die freie Meinungsäußerung und die soziale Gerechtigkeit darstellt“, fügte er hinzu. „Die Ausnahmen für die Strafverfolgung im KI-Deal scheinen das Verbot der Gesichtserkennung in der Öffentlichkeit und die Einschränkungen der vorausschauenden Polizeiarbeit wie Schweizer Käse aussehen zu lassen.“ Allerdings wird vieles von den technischen Details in den laufenden Verhandlungen abhängen und davon, wie diese Regeln dann in der Praxis durchgesetzt werden.“

Die politischen Details des KI-Gesetzes werden noch verfeinert und aufgrund des komplexen Gesetzgebungsprozesses der EU besteht noch die Möglichkeit, dass sich das Kleingedruckte geringfügig ändert. „Es muss noch einiges an Arbeit geleistet werden, um den genauen Text fertigzustellen, und der Teufel wird im Detail stecken“, sagte Satija. Die endgültige Fassung des Gesetzentwurfs werde wahrscheinlich erst irgendwann im Januar fertiggestellt, sagte sie.

Für diejenigen, die es verfolgen: die „KI-Sicherheit“-Debatte kann kompliziert und manchmal ziemlich nervig sein. Es gibt eine große Tendenz seitens der Führungskräfte, zu reden bis zum Erbrechen über die Gefahren, die KI mit sich bringt, ohne viel zu tun. Obwohl die EU dafür gelobt werden sollte, ein Gesetz auf den Weg zu bringen, das sich mit vielen Herausforderungen der künstlichen Intelligenz auseinandersetzt, erscheint es auch etwas ironisch, dass sie sich dafür entschieden hat, die Formen davon zu ignorieren, die am wahrscheinlichsten außer Kontrolle geraten und außer Kontrolle geraten Leute verletzen. Schließlich kann es nicht viel dystopischer sein als die KI-gestützte Polizeiüberwachung. Wenn die Leute die KI-Sicherheit so ernst nehmen, warum haben diese Anwendungsfälle dann nicht oberste Priorität für die Regulierungsbehörden?

Bild für den Artikel mit dem Titel „Es sieht ganz danach aus, als ob Regierungen der KI-Überwachung freien Lauf lassen wollen.“

Foto: Tada-Bilder (Shutterstock)

Frage des Tages: Was hat es mit „multimodal“ auf sich?

Anfang dieser Woche begannen Leute zu berichten, dass das neueste große Sprachmodell von OpenAI – GPT-4.5 – online durchgesickert sei. Daniel Nyugen, der auf X gepostet hat über das angebliche Leck beschrieb das LLM als „multimodale Fähigkeiten in den Bereichen Sprache, Audio, Bild, Video und 3D sowie komplexe Argumentation und modalübergreifendes Verständnis“. Während es wie dieses Leck aussieht ist tatsächlich eine FälschungTatsache ist jedoch, dass die KI-Branche derzeit von dieser ganzen „Multimodalität“-Sache besessen ist. Soweit ich weiß, handelt es sich bei multimodalen Systemen um solche, bei denen ein KI-System aus einer Vielzahl unterschiedlicher Datentypen (wie Text, Bilder, Audio und Video) aufgebaut ist, die es dem System ermöglichen, „menschliche“ Eigenschaften zu zeigen. „Gefällt mir“-Fähigkeiten. OpenAIs aktuelle Integrationen von ChatGPT (in dem es jetzt Dinge „sprechen“, „hören“ und „sehen“ kann) sind gute Beispiele für Multimodalität. Es gilt derzeit als Sprungbrett in Richtung AGI – künstliche allgemeine Intelligenz –, dem heiß begehrten Ziel der KI-Entwicklung.

Weitere Schlagzeilen diese Woche

  • CEO von Sports Illustrated ist nach Skandal um KI-Journalisten draußen. Ross Levinsohn, der ehemalige Chef der Sports Illustrated, wurde gefeuert von der Muttergesellschaft der Publikation, der Arena Group, nach der Veröffentlichung veröffentlichte mehrere KI-generierte Geschichten Verwendung gefälschter Verfasserzeilen. Der Skandal ist nur der jüngste in einer Reihe ähnlicher Vorfälle, bei denen Nachrichtenagenturen die höchst unethische Entscheidung treffen, KI-generierte Inhalte auf ihre Websites einzuschleusen, in der Hoffnung, dass es niemandem auffällt.
  • Microsoft will bei der KI nuklear vorgehen. Microsoft, das von Bill Gates gegründete mittelmäßige Softwareunternehmen, hat es geschafft sich einem aufstrebenden Stern in der KI-Branche anschließen (OpenAI)und erkauft sich damit weitere Jahre kultureller Relevanz. Um die massiven KI-Operationen der beiden Unternehmen voranzutreiben, hofft Microsoft nun, auf eine umstrittene Energiequelle zurückzugreifen: Atomkraft. Es war zuvor berichtet dass Microsoft auf der Suche nach einer Person war, die „Projektinitiativen für alle Aspekte der Kernenergieinfrastruktur für globales Wachstum leitet“. Nun, das Wall Street Journal Berichte dass das Unternehmen versucht, KI zu nutzen, um den komplexen nuklearen Regulierungsprozess zu steuern. Es ist bekannt, dass dieser Prozess Jahre dauert, daher geht Microsoft davon aus, dass eine Automatisierung hilfreich sein könnte.
  • Der Papst ist ziemlich besorgt über eine KI-Diktatur. Papst Franziskus hat über die Gefahren der modernen Welt nachgedacht und diese Woche hat er sich dem angeschlossen die Bedrohung durch eine KI-gestützte Technokratie. Der religiöse Führer forderte einen verbindlichen globalen Vertrag, mit dem verhindert werden könne, dass „technokratische Systeme“ eine „Bedrohung für unser Überleben“ darstellten. Harte Worte. Ich schätze dieser Deepfake in dem er verdammt bescheuert aussah, ging es ihm wirklich auf die Nerven.



source-113

Leave a Reply