Joe Biden will die Hilfe von Hackern, um KI-Chatbots in Schach zu halten


ChatGPT hat geschürt neue Hoffnungen auf das Potenzial künstlicher Intelligenz – aber auch neue Ängste. Heute schloss sich das Weiße Haus dem Chor der Besorgnis an und kündigte an, dass es diesen Sommer eine Massen-Hacking-Übung auf der Defcon-Sicherheitskonferenz unterstützen wird, um generative KI-Systeme von Unternehmen wie Google zu untersuchen.

Das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses sagte auch, dass 140 Millionen US-Dollar für die Gründung von sieben neuen nationalen KI-Forschungsinstituten umgeleitet werden, die sich auf die Entwicklung ethischer, transformativer KI für das Gemeinwohl konzentrieren, wodurch sich die Gesamtzahl landesweit auf 25 erhöht.

Die Ankündigung erfolgte Stunden vor einem Treffen zwischen Vizepräsidentin Kamala Harris und Führungskräften von Google und Microsoft sowie den Startups Anthropic und OpenAI, die ChatGPT ins Leben gerufen haben, zu den Chancen und Risiken der KI.

Die KI-Intervention des Weißen Hauses kommt, da der Appetit auf die Regulierung der Technologie weltweit wächst, angeheizt durch den Hype und die Investitionen, die durch ChatGPT ausgelöst wurden. Im Parlament der Europäischen Union verhandeln Gesetzgeber über letzte Aktualisierungen eines umfassenden KI-Gesetzes, das einige Anwendungen von KI einschränken und sogar verbieten wird, einschließlich der Aufnahme generativer KI. Der brasilianische Gesetzgeber erwägt auch eine Regulierung, die auf den Schutz der Menschenrechte im Zeitalter der KI abzielt. Der Entwurf einer generativen KI-Regulierung wurde letzten Monat von der chinesischen Regierung angekündigt.

In Washington, DC, stellte der demokratische Senator Michael Bennett letzte Woche einen Gesetzentwurf vor, der eine KI-Task Force schaffen würde, die sich auf den Schutz der Privatsphäre und der Bürgerrechte der Bürger konzentriert. Ebenfalls letzte Woche vier US-Regulierungsbehörden, darunter die Federal Trade Commission und das Justizministerium gemeinsam zur Nutzung verpflichtet bestehende Gesetze zum Schutz der Rechte amerikanischer Bürger im Zeitalter der KI. Diese Woche bestätigte das Büro des demokratischen Senators Ron Wyden Pläne, erneut zu versuchen, ein Gesetz namens Algorithmic Accountability Act zu verabschieden, das Unternehmen dazu verpflichten würde, ihre Algorithmen zu bewerten und offenzulegen, wann ein automatisiertes System verwendet wird.

Arati Prabhakar, Direktor des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses, genannt im März bei einer von Axios veranstalteten Veranstaltung, dass eine staatliche Überprüfung der KI notwendig sei, um von der Technologie zu profitieren. „Wenn wir diese Chancen ergreifen wollen, müssen wir zunächst mit den Risiken ringen“, sagte Prabhakar.

Die vom Weißen Haus unterstützte Hacking-Übung, die darauf abzielt, Schwachstellen in generativen KI-Systemen aufzudecken, wird diesen Sommer auf der Defcon-Sicherheitskonferenz stattfinden. Tausende von Teilnehmern, darunter Hacker und Richtlinienexperten, werden gebeten, zu untersuchen, wie generative Modelle von Unternehmen wie Google, Nvidia und Stability AI mit der 2022 angekündigten KI-Bill of Rights der Biden-Regierung und einem National Institute of Standards and Technology in Einklang stehen Risikomanagement-Rahmen Anfang dieses Jahres veröffentlicht.

Punkte werden im Rahmen eines „Capture the Flag“-Formats vergeben, um die Teilnehmer zu ermutigen, auf eine Vielzahl von Fehlern oder unappetitliches Verhalten der KI-Systeme zu testen. Die Veranstaltung wird in Absprache mit Microsoft, der gemeinnützigen SeedAI, durchgeführt KI-Schwachstellendatenbank, und Humane Intelligence, eine gemeinnützige Organisation, die vom Daten- und Sozialwissenschaftler Rumman Chowdhury gegründet wurde. Zuvor leitete sie eine Gruppe bei Twitter, die sich mit Ethik und maschinellem Lernen befasste, und veranstaltete eine Prämie für Voreingenommenheit, die Voreingenommenheit beim automatischen Zuschneiden von Fotos im sozialen Netzwerk aufdeckte.

source-114

Leave a Reply