Regierungen auf der ganzen Welt haben neue Regeln zur Entwicklung künstlicher Intelligenz vorgestellt. Die neuen Richtlinien wurden in der Hoffnung veröffentlicht, zu verhindern, dass die Technologie auf eine Weise genutzt wird, die der Menschheit schaden könnte.
Produziert von der US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA) und das UK National Cyber Security Centre (NCSC) bauen sie auf früheren freiwilligen Verpflichtungen auf, die die Biden-Regierung Anfang des Jahres eingegangen ist.
Die 20-seitige Vereinbarung wurde von 18 Ländern unterzeichnet, in denen Unternehmen KI-Systeme entwickeln. Sie fordert diese Unternehmen dringend auf, die Technologie so zu entwickeln und einzusetzen, dass Kunden und die Öffentlichkeit vor Missbrauch geschützt sind.
Breiter Fokus auf Risiko
Bei den neuen Regeln handelt es sich eher um einen unverbindlichen Rahmen zur Überwachung von KI-Systemen auf Missbrauch. Sie enthalten Vorschläge zum Schutz der beim Training der Modelle verwendeten Daten und zur Gewährleistung der Informationssicherheit.
Obwohl diese größtenteils freiwillig sind, wird davon ausgegangen, dass Unternehmen, wenn sie sich nicht einigen oder zulassen, dass ihre Modelle in die falschen Hände geraten oder missbraucht werden, in Zukunft mit einer strengeren und restriktiveren Regulierung konfrontiert werden könnten.
Im Gespräch mit Reuters sagte Jen Easterly von der US-amerikanischen Cybersecurity and Infrastructure Security Agency, dass eine globale Einigung für den Erfolg der Richtlinien von entscheidender Bedeutung sei.
„Dies ist das erste Mal, dass wir die Bestätigung sehen, dass es bei diesen Fähigkeiten nicht nur um coole Funktionen gehen sollte und darum, wie schnell wir sie auf den Markt bringen können oder wie wir im Wettbewerb bestehen können, um die Kosten zu senken“, sagte sie.
Sicher durch Design
Während der Schwerpunkt der weltweiten KI-Sicherheitsdiskussion auf dem Risiko von Superintelligenz und risikoreichen Basismodellen lag, decken die neuen Richtlinien auch die aktuelle Generation und engere KI ab. Der Schutz der Daten und die Verhinderung von Missbrauch stehen im Vordergrund, nicht die Funktionalität.
Die Richtlinien decken vier Schlüsselbereiche ab: sicheres Design, sichere Entwicklung, sichere Bereitstellung sowie sicherer Betrieb und Wartung.
Sie betonten, dass Unternehmen, die KI-Modelle entwickeln, Verantwortung für die Sicherheitsergebnisse für Kunden übernehmen, sich radikale Transparenz und Rechenschaftspflicht zu eigen machen und Organisationsstrukturen und Führung so aufbauen, dass „Secure by Design“ oberste Priorität hat.
Sichere Systeme kommen den Benutzern zugute
Toby Lewis, Global Head of Threat Analysis bei Darktrace, sagte, dass die Sicherstellung, dass Daten und KI-Modelle vor Angriffen geschützt sind, eine Voraussetzung für jeden Entwickler sein sollte.
„Diejenigen, die KI entwickeln, sollten noch weiter gehen und Vertrauen aufbauen, indem sie die Benutzer auf die Reise mitnehmen, wie ihre KI zu ihren Antworten gelangt.“ Mit Sicherheit und Vertrauen werden wir die Vorteile der KI schneller und für mehr Menschen realisieren.“