Was du wissen musst
- Kürzlich wurde Microsoft Copilot bei der Erstellung gefälschter Presseerklärungen zum jüngsten Tod des russischen Oppositionsführers Alexej Nawalny gesichtet, die diese mit Präsident Biden und Präsident Putin in Verbindung brachten.
- Es ist nun ans Licht gekommen, dass weder Präsident Biden noch Präsident Putin eine dieser Aussagen gemacht haben.
- Microsoft gab an, die Angelegenheit untersucht zu haben und derzeit Änderungen vorzunehmen, um die Qualität der vom Chatbot generierten Antworten zu verbessern und zu verbessern.
Während generative KI weiterhin erstaunliche Leistungen in verschiedenen Landschaften und Sektoren vollbringt, steht die Technologie vor einer Reihe von Herausforderungen. In den letzten Monaten ist die Zahl der eingereichten Meldungen, in denen Fälle angeführt werden, in denen die Technologie zur Generierung von Deepfakes und zur Verbreitung von Fehlinformationen genutzt wurde, alarmierend hoch.
Microsoft Copilot wurde kürzlich dabei gesichtet, wie er falsche Aussagen über den Tod des russischen Oppositionsführers Alexej Nawalny machte. Der Chatbot verknüpfte die Aussage fälschlicherweise mit dem russischen Präsidenten Wladimir Putin und dem US-Präsidenten Joe Biden (via Sherwood Media).
Microsoft versucht zu verhindern, dass #Copilot gefälschte Putin-Kommentare zum Tod von Nawalny generiert #AlexeiNavalny pic.twitter.com/HjXuCMi0rs27. Februar 2024
Dies geschah, als ein Journalist bei Sherwood Media versuchte, die Textgenerierungsfunktionen von Microsoft Copilot für einen Nachrichtenartikel über Navalnys Tod zu nutzen. Ein Teil der vom Tool generierten Ausgabe enthielt eine angeblich von Präsident Biden herausgegebene Presseerklärung, in der Präsident Putin für Nawalnys Tod verantwortlich gemacht wurde. Der generierte Inhalt enthielt auch eine Widerlegung Putins, der seine Beteiligung an der Angelegenheit kategorisch distanzierte und die Aussage als „haltlos und politisch motiviert“ abtat.
Hier ist ein Teil der angeblich von Präsident Putin abgegebenen Erklärung, die von Microsoft Copilot geteilt wurde:
„Wladimir Putin, der russische Präsident, reagierte auf Joe Bidens Aussage zum Tod von Aleksej Nawalny mit einer Mischung aus Abwehr und Ablehnung. In seiner offiziellen Ansprache betonte Putin, dass Nawalny ein „Krimineller“ sei, der gegen russisches Recht verstoßen habe und rechtmäßig inhaftiert sei. Er warf dem Westen vor, Nawalny als politischen Schachball zu nutzen, um die Souveränität und Stabilität Russlands zu untergraben. Putins Ton war fest und er vermied es, direkt auf die Vorwürfe der Verantwortung für Nawalnys Tod einzugehen.“
Präsident Wladimir Putin hat sich bislang noch nicht zu Nawalnys Tod geäußert.
Zum Vergleich: Alexej Nawalny war vor seinem Tod am 16. Februar 2024 ein renommierter Anwalt und de facto Oppositionsführer. Vor seinem Tod saß Nawalny wegen Extremismusvorwürfen eine 19-jährige Haftstrafe und weitere elf Jahre hinter Gittern. ein halbes Jahr Haft wegen Betrugs. Die Nachricht von seinem Tod löste in ganz Russland Proteste aus.
Fehlinformationen und Deepfakes sind mit KI immer vertrauter geworden
Im Gespräch mit Sherwood Mediabestätigte ein Microsoft-Sprecher, dass das Unternehmen das Problem untersucht hat und derzeit Änderungen vornimmt, um die Qualität der KI-generierten Antworten von Copilot auf Anfragen zu verbessern.
„Wir haben diesen Bericht untersucht und nehmen Änderungen vor, um die Qualität unserer Antworten zu verbessern. Während wir das Erlebnis weiter verbessern, ermutigen wir die Menschen, beim Betrachten der Ergebnisse nach bestem Wissen und Gewissen vorzugehen, einschließlich der Überprüfung von Quellmaterialien und der Überprüfung von Weblinks, um mehr zu erfahren.“ “
Dies ist nicht das erste Mal, dass wir Zeuge eines solchen Vorfalls werden. Letztes Jahr wurde Microsoft Copilot (ehemals Bing Chat) dabei gesichtet, wie es Wählern falsche Informationen über die bevorstehenden Wahlen lieferte. Die Forscher gaben an, dass das Problem systemischer Natur sei. Nutzer in Deutschland und der Schweiz stießen auf ein ähnliches Problem, als sie versuchten, mehr über den Wahlprozess in ihren jeweiligen Ländern zu erfahren.
Microsoft hat seinen Plan ausgearbeitet, um die Integrität der bevorstehenden Wahl vor KI-Deepfakes zu schützen. Ziel ist es, die Wähler vor der Wahl mit verlässlichen und sachlichen Wahlnachrichten auf Bing zu versorgen.
Andernorts stellt das Auftauchen von Deepfakes im Internet weiterhin eine Bedrohung dar. Im Januar tauchten im Internet virale Bilder des Popstars Taylor Swift auf, die vermutlich mit Microsoft Designer erstellt worden waren. Infolgedessen hat Microsoft ein neues Update für das Bildgenerierungstool mit neuen Leitplanken veröffentlicht, die Aufforderungen zur Bildgenerierung auf Nacktheitsbasis blockieren.