OpenAI legt seine Desinformationsstrategie vor den Wahlen 2024 dar


Während sich die USA auf die Präsidentschaftswahl 2024 vorbereiten, teilt OpenAI seine Ergebnisse mit Pläne zur Unterdrückung von Fehlinformationen im Zusammenhang mit Wahlen weltweit, wobei der Schwerpunkt auf der Erhöhung der Transparenz über die Herkunft der Informationen liegt. Ein solcher Höhepunkt ist die Verwendung von Kryptographie – wie von der Coalition for Content Provenance and Authenticity standardisiert – zur Kodierung der Herkunft von Bildern, die von DALL-E 3 generiert werden. Dies wird es der Plattform ermöglichen, KI-generierte Bilder mithilfe eines Herkunftsklassifizierers besser zu erkennen. um den Wählern zu helfen, die Zuverlässigkeit bestimmter Inhalte einzuschätzen.

Dieser Ansatz ähnelt, wenn nicht sogar besser, DeepMinds SynthID für KI-generierte Bilder und Audiodateien mit digitalen Wasserzeichen als Teil von Googles eigenem Ansatz Strategie für Wahlinhalte letzten Monat veröffentlicht. Der KI-Bildgenerator von Meta fügt seinem Inhalt außerdem ein unsichtbares Wasserzeichen hinzu, obwohl das Unternehmen seine Bereitschaft zur Bekämpfung wahlbezogener Fehlinformationen noch nicht mitgeteilt hat.

OpenAI sagt, dass es bald mit Journalisten, Forschern und Plattformen zusammenarbeiten wird, um Feedback zu seinem Provenienzklassifikator zu erhalten. Zum gleichen Thema werden ChatGPT-Benutzer beginnen, Echtzeitnachrichten aus der ganzen Welt mit Quellenangabe und Links zu sehen. Sie werden auch weitergeleitet CanIVote.orgder offiziellen Online-Quelle zum US-Wahlrecht, wenn sie Verfahrensfragen stellen, etwa wo oder wie man wählen soll.

Darüber hinaus bekräftigt OpenAI seine aktuellen Richtlinien zur Unterbindung von Nachahmungsversuchen in Form von Deepfakes und Chatbots sowie von Inhalten, die dazu dienen, den Abstimmungsprozess zu verzerren oder Menschen von der Abstimmung abzuhalten. Das Unternehmen verbietet auch Anwendungen, die für politische Kampagnen entwickelt wurden, und bei Bedarf ermöglichen seine neuen GPTs Benutzern, potenzielle Verstöße zu melden.

OpenAI sagt, dass die Erkenntnisse aus diesen frühen Maßnahmen, wenn sie überhaupt erfolgreich sind (und das ist ein sehr großes „Wenn“), dabei helfen werden, ähnliche Strategien auf der ganzen Welt einzuführen. Das Unternehmen wird in den kommenden Monaten weitere entsprechende Ankündigungen veröffentlichen.

source-115

Leave a Reply