Wie KI genutzt werden kann, um vor 2024 individuelle Desinformation zu erzeugen


„Wenn ich eine Desinformationskampagne starten möchte, kann ich in 99 Prozent der Fälle scheitern. Man scheitert ständig, aber das spielt keine Rolle“, sagt Farid. „Hin und wieder kommt der QAnon durch. Die meisten Ihrer Kampagnen können scheitern, aber diejenigen, die das nicht tun, können verheerende Folgen haben.“

Farid sagt, wir hätten während des Wahlzyklus 2016 gesehen, wie die Empfehlungsalgorithmen auf Plattformen wie Facebook Menschen radikalisierten und zur Verbreitung von Desinformation und Verschwörungstheorien beitrugen. Im Vorfeld der US-Wahlen 2024 wird der Algorithmus von Facebook – selbst eine Form der KI – wahrscheinlich einige KI-generierte Beiträge empfehlen, anstatt nur Inhalte zu verbreiten, die vollständig von menschlichen Akteuren erstellt wurden. Wir sind an einem Punkt angelangt, an dem KI eingesetzt wird, um Desinformationen zu erzeugen, die Ihnen dann eine andere KI empfiehlt.

„Wir wurden ziemlich gut durch sehr minderwertige Inhalte getäuscht. Wir treten in eine Phase ein, in der wir Desinformation und Propaganda von höherer Qualität erhalten werden“, sagt Starbird. „Es wird viel einfacher sein, Inhalte zu produzieren, die auf bestimmte Zielgruppen zugeschnitten sind als je zuvor. Ich denke, wir müssen uns einfach darüber im Klaren sein, dass das jetzt hier ist.“

Was kann man gegen dieses Problem tun? Leider nur so viel. Laut Diresta müssen die Menschen auf diese potenziellen Bedrohungen aufmerksam gemacht werden und vorsichtiger sein, mit welchen Inhalten sie interagieren. Sie sagt, Sie sollten prüfen, ob es sich bei Ihrer Quelle beispielsweise um eine Website oder ein Social-Media-Profil handelt, das bzw. die erst vor Kurzem erstellt wurde. Farid sagt, dass KI-Unternehmen auch dazu gedrängt werden müssen, Sicherheitsvorkehrungen zu treffen, damit insgesamt weniger Desinformation entsteht.

Die Biden-Administration hat kürzlich mit einigen der größten KI-Unternehmen – dem ChatGPT-Hersteller OpenAI, Google, Amazon, Microsoft und Meta – eine Vereinbarung getroffen, die sie dazu ermutigt, spezifische Leitplanken für ihre KI-Tools zu schaffen, einschließlich externer Tests von KI-Tools und Wasserzeichen für Inhalte erstellt von KI. Diese KI-Unternehmen haben auch eine erstellt Gruppe Der Schwerpunkt liegt auf der Entwicklung von Sicherheitsstandards für KI-Tools, und der Kongress debattiert darüber, wie KI reguliert werden kann.

Trotz dieser Bemühungen beschleunigt sich die KI schneller, als sie eingedämmt wird, und das Silicon Valley hält seine Versprechen, nur sichere und getestete Produkte auf den Markt zu bringen, oft nicht ein. Und selbst wenn sich einige Unternehmen verantwortungsbewusst verhalten, bedeutet das nicht, dass alle Akteure in diesem Bereich entsprechend handeln werden.

„Das ist die klassische Geschichte der letzten 20 Jahre: Technologie entfesseln, in die Privatsphäre aller eindringen, Chaos anrichten, Billionen-Dollar-Unternehmen werden und dann sagen: ‚Na ja, es sind einige schlimme Dinge passiert‘“, sagt Farid. „Wir wiederholen gewissermaßen die gleichen Fehler, aber jetzt ist es noch schlimmer, weil wir dieses Zeug auf der Rückseite mobiler Geräte, sozialer Medien und eines Chaos veröffentlichen, das bereits existiert.“

source-114

Leave a Reply