Die USA und Großbritannien arbeiten zusammen, um die Sicherheit von KI-Modellen zu testen


OpenAI, Google, Anthropic und andere Unternehmen, die generative KI entwickeln, verbessern ihre Technologien weiter und veröffentlichen immer bessere große Sprachmodelle. Um einen gemeinsamen Ansatz für eine unabhängige Bewertung der Sicherheit dieser Modelle zu schaffen, sobald sie auf den Markt kommen, haben die Regierungen des Vereinigten Königreichs und der USA dies getan unterzeichnet ein Memorandum of Understanding. Gemeinsam werden das britische AI ​​Safety Institute und sein Gegenstück in den USA, das von Vizepräsidentin Kamala Harris angekündigt wurde, aber noch nicht den Betrieb aufgenommen hat, Testreihen entwickeln, um die Risiken zu bewerten und die Sicherheit „der fortschrittlichsten KI-Modelle“ zu gewährleisten. “

Sie planen, im Rahmen der Partnerschaft technisches Wissen, Informationen und sogar Personal auszutauschen, und eines ihrer ersten Ziele scheint die Durchführung einer gemeinsamen Testübung an einem öffentlich zugänglichen Modell zu sein. Das teilte die britische Wissenschaftsministerin Michelle Donelan mit, die das Abkommen unterzeichnet hatte Die Financial Times dass sie „wirklich schnell handeln müssen“, weil sie damit rechnen, dass im Laufe des nächsten Jahres eine neue Generation von KI-Modellen auf den Markt kommen wird. Sie glauben, dass diese Modelle „völlig bahnbrechend“ sein könnten, wissen aber immer noch nicht, wozu sie fähig sein könnten.

Entsprechend Die Zeiten, Diese Partnerschaft ist die erste bilaterale Vereinbarung zur KI-Sicherheit weltweit, obwohl sowohl die USA als auch das Vereinigte Königreich beabsichtigen, in Zukunft mit anderen Ländern zusammenzuarbeiten. „KI ist die bestimmende Technologie unserer Generation. Diese Partnerschaft wird die Arbeit unserer beiden Institute über das gesamte Spektrum an Risiken hinweg beschleunigen, sei es für unsere nationale Sicherheit oder für unsere Gesellschaft insgesamt“, sagte US-Handelsministerin Gina Raimondo. „Unsere Partnerschaft macht deutlich, dass wir vor diesen Bedenken nicht davonlaufen – wir rennen ihnen entgegen. Durch unsere Zusammenarbeit werden unsere Institute ein besseres Verständnis von KI-Systemen erlangen, fundiertere Bewertungen durchführen und strengere Leitlinien herausgeben.“ “

Während sich diese besondere Partnerschaft auf Tests und Evaluierungen konzentriert, erlassen Regierungen auf der ganzen Welt auch Vorschriften, um KI-Tools unter Kontrolle zu halten. Bereits im März unterzeichnete das Weiße Haus eine Durchführungsverordnung, die sicherstellen soll, dass Bundesbehörden nur KI-Tools verwenden, die „die Rechte und die Sicherheit des amerikanischen Volkes nicht gefährden“. Wenige Wochen zuvor verabschiedete das Europäische Parlament umfassende Gesetze zur Regulierung künstlicher Intelligenz. Es wird „KI, die menschliches Verhalten manipuliert oder die Schwachstellen von Menschen ausnutzt“, „biometrische Kategorisierungssysteme auf der Grundlage sensibler Merkmale“ sowie das „ungezielte Ausschneiden“ von Gesichtern aus CCTV-Aufnahmen und dem Internet zur Erstellung von Gesichtserkennungsdatenbanken verbieten. Darüber hinaus müssen Deepfakes und andere KI-generierte Bilder, Videos und Audiodaten gemäß den Regeln eindeutig als solche gekennzeichnet werden.

source-115

Leave a Reply