Was du wissen musst
- Microsofts KI-gestützter Chatbot Copilot generiert Berichten zufolge ungenaue Informationen über die bevorstehenden US-Wahlen.
- Im November legte Microsoft ausführliche Pläne zum Schutz des Wahlprozesses vor KI-Deepfakes vor und bürgte für Bing News als glaubwürdige Quelle für genaue Informationen.
- Forscher gehen davon aus, dass es sich um ein systemisches Problem handelt, da bei der Nutzung des Chatbots, um mehr über Wahlen in Deutschland und der Schweiz zu erfahren, ähnliche Vorfälle festgestellt wurden.
Die weit verbreitete Verfügbarkeit des Internets in den meisten Teilen der Welt ermöglicht Benutzern den sofortigen Zugriff auf Informationen, was zu einem dynamischen Wandel von gedruckten zu digitalen Medien führt. Und nun hat das Aufkommen der generativen KI die Art und Weise, wie Menschen das Internet nach Informationen durchsuchen, völlig neu definiert. Sie können Chatbots wie Microsoft Copilot oder ChatGPT von OpenAI verwenden, um gestaltete und gut kuratierte Antworten auf Eingabeaufforderungen zu generieren.
Obwohl dies ziemlich beeindruckend ist, gibt es mehrere Probleme, die angegangen werden müssen. In den letzten Monaten ist die Zahl der von besorgten Benutzern eingereichten Berichte, in denen sie darauf hinweisen, dass ChatGPT immer dümmer wird, äußerst alarmierend. Nicht zu vergessen sind die „Halluzinationsepisoden“ von Copilot zu Beginn.
Laut einem Spot von VERDRAHTET, das Problem scheint für Copilot weiterhin bestehen zu bleiben, da das Unternehmen auf politische Fragen mit veralteten, falsch informierten und völlig falschen Antworten antwortet. Da das Wahljahr näher rückt, ist es von größter Bedeutung, dass die Wähler mit genauen Informationen ausgestattet sind, die ihnen helfen, fundierte Entscheidungen zu treffen.
Warum informiert Microsofts Copilot die Wähler falsch?
Der KI-gestützte Chatbot von Microsoft, Copilot (ehemals Bing Chat), erfreut sich bei den Benutzern großer Beliebtheit. Zu Beginn dieses Jahres hat Bing die Marke von 100 Millionen täglich aktiven Nutzern überschritten. Microsoft führte schnell einen Teil des Erfolgs auf den Chatbot zurück. Während in mehreren Berichten darauf hingewiesen wurde, dass die Benutzerbasis seit der Einführung erheblich zurückgegangen ist, besteht Microsoft darauf, dass dies nicht weiter von der Wahrheit entfernt sein könnte und dass die Zahl der Benutzer stetig wächst.
Laut WIRED-Bericht wurde Copilot in mehreren Fällen beschuldigt, bei Anfragen falsche Informationen bereitgestellt zu haben. In einem Fall listete der Chatbot auf die Frage nach Wahlkandidaten GOP-Kandidaten auf, die sich bereits aus dem Rennen zurückgezogen hatten. In einem anderen Fall verwies die Frage auf die Frage nach Wahllokalen in den USA auf einen Artikel über Präsident Wladimir, der nächstes Jahr in Russland eine Wiederwahl anstrebt.
LESEN SIE MEHR: Sogar der Gründer von Wikipedia hält ChatGPT für ein „Chaos und funktioniert überhaupt nicht“
Entsprechend Forschung Nach Ansicht von WIRED ist die Tendenz von Copilot, falsche Informationen über US-Wahlen und die politische Atmosphäre bereitzustellen, systemisch. Laut einer Studie von AI Forensics und AlgorithmWatch ist dies nicht das erste Mal, dass sich Microsofts Copilot in einer ähnlichen Situation befindet. Letztes Jahr wurde festgestellt, dass es ungenaue Informationen zu Wahlen in Deutschland und der Schweiz bereitstellte.
Im Gespräch mit WIRED äußerte Natalie Kerby, Forscherin bei AI Forensics, die folgenden Ansichten zu diesem Thema:
„Manchmal werden wirklich einfache Fragen darüber, wann eine Wahl stattfindet oder wer die Kandidaten sind, einfach nicht beantwortet, und deshalb ist es als Instrument zur Informationsbeschaffung ziemlich ineffektiv. Wir haben uns das im Laufe der Zeit angesehen und es ist in seiner Inkonsistenz konsistent.“ “
Im November legte Microsoft mehrere ausgefeilte Pläne vor, um die Wahlprozesse vor KI-Deepfakes zu schützen, indem es den Wählern „maßgebliche“ und sachliche Wahlnachrichten auf Bing zur Verfügung stellt. Dazu gehört die Einführung eines „Content Credentials as a Service“-Tools, das politischen Kampagnen dabei helfen soll, ihre Inhalte vor der Verbreitung falscher und ungenauer Informationen zu schützen.
Glauben Sie, dass KI-Chatbots wie Copilot eine zuverlässige Informationsquelle sind? Teilen Sie uns Ihre Gedanken in den Kommentaren mit.