KI-Giganten verpflichten sich im Rahmen eines neuen Pakts des Weißen Hauses, externe Tests ihrer Algorithmen zuzulassen


Das weiße Haus hat mit großen KI-Entwicklern – darunter Amazon, Google, Meta, Microsoft und OpenAI – eine Vereinbarung getroffen, die sie dazu verpflichtet, Maßnahmen zu ergreifen, um zu verhindern, dass schädliche KI-Modelle auf die Welt gelangen.

Im Rahmen der Vereinbarung, die das Weiße Haus als „freiwillige Verpflichtung“ bezeichnet, verpflichten sich die Unternehmen, interne Tests durchzuführen und externe Tests neuer KI-Modelle zuzulassen, bevor sie öffentlich veröffentlicht werden. Der Test wird nach Problemen suchen, darunter voreingenommene oder diskriminierende Ergebnisse, Cybersicherheitsmängel und das Risiko eines größeren gesellschaftlichen Schadens. An der Vereinbarung beteiligten sich auch die Startups Anthropic und Inflection, beides Entwickler namhafter Konkurrenten von OpenAIs ChatGPT.

„Unternehmen haben die Pflicht, sicherzustellen, dass ihre Produkte sicher sind, bevor sie sie der Öffentlichkeit vorstellen, indem sie die Sicherheit und Leistungsfähigkeit ihrer KI-Systeme testen“, sagte der Sonderberater des Weißen Hauses für KI, Ben Buchanan, gestern in einem Briefing gegenüber Reportern. Zu den Risiken, auf die Unternehmen achten sollten, gehören Datenschutzverletzungen und sogar potenzielle Beiträge zu biologischen Bedrohungen. Die Unternehmen verpflichteten sich außerdem, die Einschränkungen ihrer Systeme sowie die Sicherheits- und Gesellschaftsrisiken, die sie mit sich bringen könnten, öffentlich zu melden.

Die Vereinbarung sieht außerdem vor, dass die Unternehmen Wasserzeichensysteme entwickeln werden, die es den Menschen erleichtern, von KI erzeugte Audio- und Bildinhalte zu identifizieren. OpenAI fügt bereits Wasserzeichen zu Bildern hinzu, die von seinem Dall-E-Bildgenerator erstellt wurden, und Google hat angekündigt, eine ähnliche Technologie für KI-generierte Bilder zu entwickeln. Im Rahmen politischer Kampagnen wird es immer wichtiger, Menschen dabei zu helfen, zu erkennen, was echt und was falsch ist scheinen sich der generativen KI zuzuwenden vor den US-Wahlen im Jahr 2024.

Jüngste Fortschritte bei generativen KI-Systemen, die Texte oder Bilder erstellen können, haben ein erneutes KI-Wettrüsten unter Unternehmen ausgelöst, die die Technologie für Aufgaben wie Websuche und das Verfassen von Empfehlungsschreiben anpassen. Aber die neuen Algorithmen haben auch erneute Besorgnis darüber ausgelöst, dass KI repressive soziale Systeme wie Sexismus oder Rassismus verstärkt, Desinformation über Wahlen fördert oder zu Werkzeugen für Cyberkriminalität wird. Infolgedessen haben Regulierungsbehörden und Gesetzgeber in vielen Teilen der Welt – einschließlich Washington, D.C. – zunehmend Forderungen nach neuen Vorschriften laut, einschließlich Anforderungen zur Bewertung von KI vor dem Einsatz.

Es ist unklar, inwieweit die Vereinbarung die Arbeitsweise großer KI-Unternehmen verändern wird. Das wachsende Bewusstsein für die potenziellen Nachteile der Technologie hat dazu geführt, dass Technologieunternehmen bereits Mitarbeiter einstellen, die an KI-Richtlinien und -Tests arbeiten. Google verfügt über Teams, die seine Systeme testen, und veröffentlicht einige Informationen, etwa die beabsichtigten Anwendungsfälle und ethische Überlegungen für bestimmte KI-Modelle. Meta und OpenAI laden manchmal externe Experten ein, um zu versuchen, ihre Modelle in einem sogenannten Red-Teaming-Ansatz zu durchbrechen.

„Geleitet von den dauerhaften Prinzipien der Sicherheit und des Vertrauens gehen die freiwilligen Verpflichtungen auf die Risiken ein, die von fortschrittlichen KI-Modellen ausgehen, und fördern die Einführung spezifischer Praktiken – wie Red-Team-Tests und die Veröffentlichung von Transparenzberichten –, die das gesamte Ökosystem voranbringen werden“, sagte Microsoft-Präsident Brad Smith in einem Blogbeitrag.

Zu den potenziellen gesellschaftlichen Risiken, auf die Unternehmen im Rahmen der Vereinbarung achten sollten, gehört nicht der CO2-Fußabdruck des Trainings von KI-Modellen, ein Problem, das mittlerweile häufig in der Forschung zu den Auswirkungen von KI-Systemen angeführt wird. Die Erstellung eines Systems wie ChatGPT kann Tausende von leistungsstarken Computerprozessoren erfordern, die über längere Zeiträume laufen.

source-114

Leave a Reply