So nutzen gewalttätige Extremisten generative KI-Tools


„Wir werden mit Microsoft zusammenarbeiten, um herauszufinden, ob es Möglichkeiten gibt, unser Materialarchiv zu nutzen, um eine Art Gen-KI-Erkennungssystem zu schaffen, um der aufkommenden Gefahr entgegenzuwirken, dass Gen-KI in großem Umfang für terroristische Inhalte verwendet wird.“ Sagt Hadley. „Wir sind zuversichtlich, dass Gen-KI zur Abwehr feindseliger Ausnutzung von Gen-KI eingesetzt werden kann.“

Die Partnerschaft wurde heute, am Vorabend des Christchurch Call Leaders’ Summit, einer Bewegung zur Beseitigung von Terrorismus und extremistischen Inhalten aus dem Internet, in Paris bekannt gegeben.

„Die Nutzung digitaler Plattformen zur Verbreitung gewalttätiger extremistischer Inhalte ist ein dringendes Problem mit realen Konsequenzen“, sagte Brad Smith, Vizepräsident und Präsident von Microsoft, in einer Erklärung. „Durch die Kombination der Fähigkeiten von Tech Against Terrorism mit KI hoffen wir, dazu beizutragen, eine sicherere Welt sowohl online als auch offline zu schaffen.“

Während Unternehmen wie Microsoft, Google und Facebook alle über eigene KI-Forschungsabteilungen verfügen und wahrscheinlich bereits eigene Ressourcen zur Bekämpfung dieses Problems einsetzen, wird die neue Initiative letztendlich denjenigen Unternehmen helfen, die diese Bemühungen nicht alleine bekämpfen können.

„Dies wird besonders wichtig für kleinere Plattformen sein, die keine eigenen KI-Forschungszentren haben“, sagt Hadley. „Selbst jetzt, mit den Hashing-Datenbanken, können kleinere Plattformen einfach von diesen Inhalten überwältigt werden.“

Die Bedrohung durch generative KI-Inhalte ist nicht auf extremistische Gruppen beschränkt. Letzten Monat hat die Internet Watch Foundation, eine in Großbritannien ansässige gemeinnützige Organisation, die sich für die Beseitigung von Inhalten zur Ausbeutung von Kindern aus dem Internet einsetzt, einen Bericht veröffentlicht Darin wurde die wachsende Präsenz von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) beschrieben, das von KI-Tools im Dark Web erstellt wurde.

Die Forscher fanden über 20.000 KI-generierte Bilder, die im Laufe von nur einem Monat in einem Dark-Web-CSAM-Forum gepostet wurden, wobei 11.108 dieser Bilder von den IWF-Forschern als höchstwahrscheinlich kriminell eingestuft wurden. Wie die IWF-Forscher in ihrem Bericht schreiben: „Diese KI-Bilder können so überzeugend sein, dass sie von echten Bildern nicht zu unterscheiden sind.“

source-114

Leave a Reply