Was du wissen musst
- In einem von Lester Holt moderierten Interview im NBC-Segment „Nightly News Exclusive“ wies Microsoft-CEO Satya Nadella darauf hin, dass genügend Technologie vorhanden sei, um die bevorstehenden US-Präsidentschaftswahlen vor KI-Deepfakes und Fehlinformationen zu schützen.
- Dazu gehören Wasserzeichen, die Erkennung von Deepfakes und Content-IDs.
- Microsoft plant außerdem, den Wählern über seine Suchmaschine Bing verlässliche und sachliche Informationen über die bevorstehende Wahl zur Verfügung zu stellen.
Während die Anwendungsfälle generativer KI in unserem täglichen Leben unterschiedlich sein können, sind die meisten Benutzer eher geneigt, ihre Fähigkeiten in verschiedenen Bereichen zu nutzen, darunter in der Medizin, im Bildungswesen und als Produktivitätswerkzeug am Arbeitsplatz. Einige Benutzer haben hingegen deutlich erklärt, dass sie die Technologie nicht nutzen werden, und ihre Bedenken hinsichtlich der Sicherheit und des Fehlens von Leitplanken geäußert.
Dennoch hat die Technologie großen Einfluss auf die Informationen, mit denen Benutzer beim Durchsuchen des Internets interagieren. In den letzten Monaten gab es unglaublich viele Berichte über KI-generierte Inhalte in Verbindung mit Deepfakes. Da die US-Wahlen vor der Tür stehen, könnten irreführende Informationen die Wähler in die falsche Richtung lenken, was wiederum auf lange Sicht verheerende Folgen haben könnte.
Bidens Regierung hat letztes Jahr eine Executive Order erlassen, um einige dieser Bedenken auszuräumen, und obwohl dies ein Schritt in die richtige Richtung ist, scheinen einige Probleme weiterhin zu bestehen. Satya Nadella, CEO von Microsoft, traf sich kürzlich mit Lester Holt im NBC-Segment „Nightly News Exclusive“, um über die Maßnahmen zu sprechen, die ergriffen werden, um zu verhindern, dass KI zur Verbreitung falscher Informationen über die bevorstehende Präsidentschaftswahl 2024 eingesetzt wird.
Das Interview beginnt damit, dass Holt Satya Nadella von Microsoft fragt, welche Maßnahmen es gibt, um die bevorstehenden Wahlen vor Deepfakes und Fehlinformationen zu schützen. Während dies das erste Mal ist, dass eine Wahl stattfindet, bei der KI in allen Bereichen der Welt verbreitet ist, wies der CEO darauf hin, dass dies nicht das erste Mal ist, dass Microsoft mit Fehlinformationen, Propagandakampagnen von Gegnern und mehr zu kämpfen hat.
Satya Nadella gab zuversichtlich an, dass es ausgefeilte Maßnahmen gebe, um die Wahl vor diesen Problemen zu schützen, darunter Wasserzeichen, Erkennung von Deepfakes und Content-IDs. Er fügte außerdem hinzu, dass es genügend Technologie gebe, um durch KI verursachte Desinformation und Fehlinformationen zu bekämpfen.
Unternimmt Microsoft genug, um zu verhindern, dass sich Fehlinformationen und KI-Deepfakes negativ auf den Wahlprozess auswirken?
Letztes Jahr wurden in einem Bericht Fälle angeführt, in denen festgestellt wurde, dass Microsoft Copilot (ehemals Bing Chat) Benutzer und Wähler irreführte, indem es ihnen falsche Informationen über die bevorstehenden Wahlen lieferte. Forscher wiesen darauf hin, dass es sich um ein systemisches Problem handelte, da der KI-gestützte Chatbot den Benutzern auch irreführende Informationen lieferte, als sie versuchten, mehr über den Wahlprozess in Deutschland und der Schweiz zu erfahren. Dies ist keine völlige Überraschung, da in mehreren Berichten darauf hingewiesen wird, dass KI-gestützte Chatbots an Genauigkeit verlieren und immer dümmer werden.
Microsoft hat bereits seinen Plan hervorgehoben, die Integrität der bevorstehenden Wahlen vor KI-Deepfakes zu schützen. Es ist geplant, die Wähler vor der Wahl mit verlässlichen und sachlichen Wahlnachrichten auf Bing zu versorgen. Der Marktanteil von Bing stagniert weiterhin, trotz der milliardenschweren Investition von Microsoft in KI, die es extrem schwierig macht, die Dominanz von Google in dieser Kategorie zu knacken.
Google und Bing stehen unter Beschuss, weil sie Deepfake-Pornos zu ihren Top-Ergebnissen zählen, und das Problem wird offenbar noch schlimmer, da in letzter Zeit virale Bilder des Popstars Taylor Swift in den sozialen Medien auftauchen. Satya Nadella von Microsoft wies darauf hin, dass mithilfe von KI generierte explizite Inhalte alarmierend und schrecklich seien.
Obwohl unbestätigt, geht man davon aus, dass die Deepfakes der Pop-Ikone mit Microsoft Designer erstellt wurden. Seitdem wurde jedoch ein neues Update veröffentlicht, das die Interaktion der Benutzer mit dem Tool regelt, einschließlich der Blockierung von Aufforderungen zur Generierung von Bildern, die auf Nacktheit basieren. Dies erfolgt zusätzlich zum neu eingeführten Disrupt Explicit Forged Images and Non-Consensual Edits (DEFIANCE) Act, der solche Vorkommnisse regulieren und verhindern soll.