US-Senatoren untersuchen die Arbeit der FTC zur Verfolgung von KI-Angriffen auf ältere Bürger

Vier US-Senatoren haben an die Vorsitzende der Federal Trade Commission (FTC), Lina Khan, geschrieben und um Informationen über die Bemühungen der FTC gebeten, den Einsatz künstlicher Intelligenz (KI) beim Betrug älterer Amerikaner zu verfolgen.

Im Brief In ihrer an Khan gerichteten Rede betonten die US-Senatoren Robert Casey, Richard Blumenthal, John Fetterman und Kirsten Gillibrand die Notwendigkeit, wirksam auf KI-gestützten Betrug und Täuschung zu reagieren.

Sie unterstrichen, wie wichtig es ist, das Ausmaß der Bedrohung zu verstehen, um ihr entgegenzuwirken, und erklärten:

„Wir bitten die FTC, mitzuteilen, wie sie Daten über den Einsatz von KI bei Betrügereien sammelt und sicherstellt, dass diese in ihrer Datenbank des Consumer Sentinel Network (Sentinel) korrekt wiedergegeben werden.“

Consumer Sentinel ist das ermittelnde Cyber-Tool der FTC, das von Strafverfolgungsbehörden auf Bundes-, Landes- oder lokaler Ebene eingesetzt wird und Berichte über verschiedene Betrügereien enthält. Die Senatoren stellten dem FTC-Vorsitzenden vier Fragen zu Datenerfassungspraktiken bei KI-Betrug.

Die Senatoren wollten wissen, ob die FTC in der Lage ist, KI-gestützte Betrügereien zu erkennen und sie in Sentinel entsprechend zu kennzeichnen. Darüber hinaus wurde die Kommission gefragt, ob sie generative KI-Betrügereien identifizieren könne, die von den Opfern unbemerkt blieben.

Der Gesetzgeber forderte außerdem eine Aufschlüsselung der Sentinel-Daten, um die Beliebtheit und Erfolgsquote der einzelnen Betrugsarten zu ermitteln. Die letzte Frage lautete, ob die FTC KI nutzt, um die von Sentinal gesammelten Daten zu verarbeiten.

Casey ist außerdem Vorsitzender des Sonderausschusses des Senats zum Thema Altern, der sich mit Fragen im Zusammenhang mit älteren Amerikanern befasst.

Verwandt: Singapur veröffentlicht National AI Strategy 2.0 und plant 15.000 KI-Experten

Am 27. November veröffentlichten die USA, das Vereinigte Königreich, Australien und 15 weitere Länder gemeinsam globale Richtlinien, um Modelle der künstlichen Intelligenz (KI) vor Manipulationen zu schützen, und forderten Unternehmen auf, ihre Modelle „sicher durch Design“ zu machen.

In den Richtlinien wurde vor allem empfohlen, die Infrastruktur des KI-Modells unter Kontrolle zu halten, die Modelle vor und nach der Veröffentlichung auf Manipulationen zu überwachen und das Personal in Bezug auf Cybersicherheitsrisiken zu schulen.

Es wurde jedoch versäumt, mögliche Kontrollen im Zusammenhang mit der Verwendung von bildgenerierenden Modellen und Deep Fakes oder Datenerfassungsmethoden und deren Verwendung in Trainingsmodellen zu erörtern.

Zeitschrift: Echte KI-Anwendungsfälle in Krypto: Kryptobasierte KI-Märkte und KI-Finanzanalyse