Bei einem Gipfel im Weißen Haus an diesem Freitaghaben sich sieben der weltweit führenden KI-Unternehmen dazu verpflichtet, die Sicherheitsmaßnahmen rund um ihre KI-Produkte zu verbessern. Nach Monaten hin- und hergehender Beratungen und Bitten um KommentareZiel der Vereinbarung zwischen dem Weißen Haus und den in KI investierten Unternehmen Amazon, Anthropic, Meta, Microsoft, Google, Inflection und OpenAI ist es, die Bedenken der Regierung hinsichtlich der Risiken und Gefahren von KI-Systemen auszuräumen.
Eine der vereinbarten Maßnahmen ist eine Aufstockung der Mittel für die Diskriminierungsforschung. als eine Möglichkeit, den algorithmischen Vorurteilen entgegenzuwirken, die derzeit KI-Netzwerken innewohnen.
Die Unternehmen einigten sich außerdem darauf, zusätzliche Investitionen in die Cybersicherheit zu tätigen. Wenn Sie jemals ein Projekt entwickelt oder etwas mit einem Tool wie ChatGPT programmiert haben, wissen Sie, wie umfassend die in Ihrem KI-Chat enthaltenen Informationen sind. Und es sind bereits genügend ChatGPT-Benutzeranmeldeinformationen online durchgesickert – wohlgemerkt ohne Verschulden von OpenAI –, was mit den erhöhten Investitionen in die Cybersicherheit bekämpft werden soll.
Ebenfalls versprochen wurde die Implementierung von Wasserzeichen auf KI-generierten Inhalten – ein Thema, das in letzter Zeit aus verschiedenen Gründen besonders in der Druckerei war.
Da ist der Urheberrechtsaspekt, gegen den bereits mehrere Klagen gegen generative KI-Unternehmen eingeleitet wurden: Das Anbringen von Wasserzeichen bei KI-generierten Inhalten wäre eine Möglichkeit, die Befürchtungen zu zerstreuen, dass von Menschen erzeugte, entstehende Daten (die Daten, die automatisch nur durch das Ausleben unseres Lebens entstehen) in einem Meer von sich schnell verbessernden KI-generierten Inhalten immer weiter verwässert werden.
Es gibt auch den systemischen Wirkungswinkel: Welche Arbeitsplätze werden von KI betroffen sein? Ja, es besteht weltweit genügend Bedarf, Arbeitskräfte irgendwann in andere, weniger betroffene Branchen zu integrieren, aber dieser Übergang ist mit menschlichen, wirtschaftlichen und zeitlichen Kosten verbunden. Wenn sich zu viel und zu schnell ändert, könnte das gesamte Wirtschafts- und Arbeitssystem zusammenbrechen.
Natürlich liegt das Wasserzeichen von KI-generierten Daten (oder synthetischen Daten, wie sie neuerdings häufiger genannt werden) auch im Interesse von KI-Unternehmen. Sie möchten nicht, dass ihre KIs aufgrund synthetischer Datensätze, vergifteter Datensätze oder aufgrund der Unfähigkeit, synthetische Daten von den sichereren, aber viel teureren neuen Daten zu unterscheiden, irgendwann verrückt werden.
Und wenn die Probleme beim rekursiven Training von KIs zu lange zu schwer zu lösen bleiben, nachdem die KI aus der Flasche ist, könnten KI-Entwickler bald keine guten Datensätze mehr haben, mit denen sie ihre Netzwerke weiter trainieren können.
Alle Versprechen waren freiwillig, möglicherweise als Zeichen des guten Willens seitens der Unternehmen, die am stärksten in KI investierten. Aber es gibt noch einen zusätzlichen Bonus: Ein Schritt wie dieser nimmt auch etwas von der Frage ab: „Können wir die KI in dem Tempo kontrollieren, in dem wir uns gerade bewegen?“ Debatte. Wenn KI-eigene Entwickler bereit sind, die Sicherheit ihrer Systeme freiwillig zu erhöhen, Dann ist dies vielleicht auch ein Bereich, in dem sie gute Gatekeeper sein werden (obwohl Ihr Kilometerstand variieren kann).
Ein Teil des Problems bei diesem Ansatz besteht darin, dass es sich lediglich um sieben Unternehmen handelt: Was ist mit den Hunderten anderer Unternehmen, die KI-Produkte entwickeln? Kann man denen vertrauen, die bereits kleiner und im Vergleich zu Giganten wie OpenAI und Microsoft im Nachteil sind? Denn das sind die Unternehmen, die mehr davon haben, wenn sie das Produkt, von dem ihr Lebensunterhalt abhängt, gewaltsam unvorbereitet an die Öffentlichkeit bringen. Es wäre definitiv nicht das erste Mal, dass ein Produkt überstürzt monetarisiert wird.
Die Verpflichtungen erforderten zwar eine interne und externe Validierung und Überprüfung, ob sie aktiv umgesetzt werden (aber es kommt immer zu Versehen, Missverständnissen, verlorenen Dokumenten und Lücken).
Das Problem hier ist, dass KI ein grundlegendes Risiko darstellt, das der Ausrottung gleichkommt, und es gibt eine Seite dieses Risikos, auf der wir auf keinen Fall sein wollen.