Ob im Guten oder im Schlechten: Künstliche Intelligenz wird bleiben. Das ist eigentlich eine Unterbietung, denn die KI-Branche boomt. Frag einfach Nvidia. Branchen auf der ganzen Welt geben Milliarden aus, um nach Möglichkeiten zu suchen, KI-Modelle in ihre Unternehmen zu integrieren. Aber während KI das Potenzial hat, die Produktivität zu steigern, Innovationen zu beschleunigen und zu einem nützlichen Werkzeug für Endbenutzer zu werden, muss die globale Politik noch aufholen, um den wachsenden Bedenken Rechnung zu tragen.
Die britische Wettbewerbs- und Marktaufsichtsbehörde (CMA) hat eine veröffentlicht Bericht nach einer Überprüfung der Foundation Models (FMs). Darin werden eine Reihe von Grundsätzen dargelegt, von denen man hofft, dass sie zu Maßnahmen führen, die Verbraucher schützen und einen gesunden Wettbewerb und eine verantwortungsvolle KI-Entwicklung fördern.
Die sieben wichtigsten Leitprinzipien, die im Bericht dargelegt werden, sind Rechenschaftspflicht, Zugang, Vielfalt, Auswahl, Flexibilität, fairer Umgang und Transparenz. Das sind alles lobenswerte Ziele. Aber gerade Letzteres muss hervorgehoben werden. Können Moral und Ethik in Einsen und Nullen zerlegt werden?
Sarah Cardell, CEO der CMA, sagte: „Die Aufgabe der CMA besteht darin, diese Märkte so zu gestalten, dass ein starker Wettbewerb und ein wirksamer Verbraucherschutz gefördert werden und die besten Ergebnisse für Menschen und Unternehmen im gesamten Vereinigten Königreich erzielt werden.“
Dies sind wichtige Ziele, und die CMA verdient Anerkennung für ihren proaktiven Ansatz. Der Bericht erwähnt jedoch, dass der Umfang begrenzt ist. Wichtige Fragen wie der Schutz des geistigen Eigentums, die Verbreitung von Fehlinformationen, das Betrugspotenzial sowie die Notwendigkeit von Datenschutz und Sicherheit wurden noch nicht geklärt. Und das zeigt, wie weit noch getan werden muss, um sicherzustellen, dass KI-Modelle nicht zu Werkzeugen für schändliche Zwecke werden.
Die der Öffentlichkeit am besten bekannten KIs sind Large Language Models (LLMs) wie ChatGPT. Dabei handelt es sich im Wesentlichen um eine riesige Datenbank mit Daten, die aus dem Internet stammen, und nicht alle dieser Daten sind legitim. Manches davon ist möglicherweise proprietär, manches illegal und manches davon ist einfach nur Müll. Es braucht einen umfassenden Regulierungsrahmen, aber das ist sicherlich leichter gesagt als getan.
Fast jeden Tag lesen wir in den Nachrichten, dass jemand seine Ersparnisse verloren hat. Betrug und Betrug sind weit verbreitet. Malware, Ransomware und Dinge wie Identitätsdiebstahl sind weit verbreitet. Irgendein abtrünniger KI-Scambot könnte für alle möglichen beschissenen Zwecke verwendet werden. Hoffentlich tun die Großen der Branche mehr als nur darüber zu reden, dass ihre Modelle nicht für Schurken missbraucht werden können. Sie wissen nur, dass die Drecksäcke, die für die Geißel der Malware verantwortlich sind, nach Möglichkeiten suchen, KI auszunutzen, verdammt noch mal.
Es ist eine neue Welt da draußen, und die Gesetzgeber müssen ihr einen Schritt voraus sein. Ich denke, das ist leichter gesagt als getan, aber es ist gut zu sehen, dass die CMA einen proaktiven Ansatz verfolgt. Jetzt brauchen wir nur noch etwas Schutz vor dem globalen Aussterben!
Von der KI, die sich als Jesus ausgibt, werde ich die Finger lassen.