Anthropic ergreift Maßnahmen, um Fehlinformationen über Wahlen zu verhindern


Im Vorfeld der US-Präsidentschaftswahl 2024 testet Anthropic, das gut finanzierte KI-Startup, eine Technologie, um zu erkennen, wann Benutzer seines GenAI-Chatbots Fragen zu politischen Themen stellen, und diese Benutzer an „maßgebliche“ Quellen für Abstimmungsinformationen weiterzuleiten.

Die Technologie namens Prompt Shield, die auf einer Kombination aus KI-Erkennungsmodellen und -Regeln basiert, zeigt ein Popup an, wenn ein in den USA ansässiger Benutzer von Claude, dem Chatbot von Anthropic, nach Abstimmungsinformationen fragt. Das Popup bietet die Möglichkeit, den Benutzer zu TurboVote weiterzuleiten, einer Ressource der überparteilichen Organisation Democracy Works, wo er aktuelle und genaue Abstimmungsinformationen finden kann.

Anthropic sagt, dass Prompt Shield aufgrund von Claudes Unzulänglichkeiten im Bereich politik- und wahlbezogener Informationen notwendig geworden sei. Anthropic räumt ein, dass Claude nicht häufig genug trainiert wird, um Echtzeitinformationen über bestimmte Wahlen bereitzustellen, und daher dazu neigt, über diese Wahlen zu halluzinieren – also Fakten zu erfinden.

„Seit wir Claude auf den Markt gebracht haben, verfügen wir über einen ‚Prompt Shield‘ – er meldet eine Reihe unterschiedlicher Arten von Schäden, basierend auf unseren akzeptablen Benutzerrichtlinien“, sagte ein Sprecher per E-Mail zu TechCrunch. „Wir werden in den kommenden Wochen unsere wahlspezifische Sofortschutzmaßnahme einführen und beabsichtigen, die Nutzung und Einschränkungen zu überwachen … Wir haben mit einer Vielzahl von Interessengruppen gesprochen, darunter politischen Entscheidungsträgern, anderen Unternehmen, der Zivilgesellschaft und Nichtregierungsorganisationen sowie wahlspezifischen.“ Berater [in developing this].“

Im Moment scheint es sich um einen begrenzten Test zu handeln. Claude hat das Pop-up nicht angezeigt, als ich gefragt habe, wie man bei der bevorstehenden Wahl wählen soll, sondern hat stattdessen einen allgemeinen Wahlleitfaden ausgespuckt. Anthropic behauptet, dass es Prompt Shield verfeinert, während es sich darauf vorbereitet, es auf mehr Benutzer auszudehnen.

Anthropic, das den Einsatz seiner Tools für politische Kampagnen und Lobbying verbietet, ist der neueste GenAI-Anbieter, der Richtlinien und Technologien implementiert, um Wahlbeeinträchtigungen zu verhindern.

Der Zeitpunkt ist kein Zufall. In diesem Jahr werden weltweit mehr Wähler als jemals zuvor zur Wahl gehen, da in mindestens 64 Ländern, die zusammen etwa 49 % der Weltbevölkerung repräsentieren, nationale Wahlen abgehalten werden sollen.

Im Januar gab OpenAI bekannt, dass es Menschen verbieten würde, ChatGPT, seinen viralen, KI-gestützten Chatbot, zu verwenden, um Bots zu erstellen, die sich als echte Kandidaten oder Regierungen ausgeben, die Funktionsweise der Stimmabgabe falsch darstellen oder Menschen von der Stimmabgabe abhalten. Wie Anthropic erlaubt auch OpenAI Benutzern derzeit nicht, mit seinen Tools Apps für politische Kampagnen- oder Lobbying-Zwecke zu erstellen – eine Richtlinie, die das Unternehmen letzten Monat bekräftigte.

In einem ähnlichen technischen Ansatz wie Prompt Shield setzt OpenAI auch Erkennungssysteme ein, um ChatGPT-Benutzer, die logistische Fragen zur Stimmabgabe stellen, auf eine überparteiliche Website, CanIVote.org, zu leiten, die von der National Association of Secretary of State betrieben wird.

In den USA hat der Kongress trotz einiger parteiübergreifender Unterstützung noch kein Gesetz verabschiedet, das die Rolle der KI-Industrie in der Politik regeln soll. Mittlerweile haben mehr als ein Drittel der US-Bundesstaaten Gesetze zur Bekämpfung von Deepfakes in politischen Kampagnen verabschiedet oder eingeführt, während die Bundesgesetzgebung ins Stocken gerät.

Anstelle von Gesetzen ergreifen einige Plattformen – unter dem Druck von Aufsichtsbehörden und Regulierungsbehörden – Maßnahmen, um zu verhindern, dass GenAI zur Irreführung oder Manipulation von Wählern missbraucht wird.

Google sagte im vergangenen September, dass politische Anzeigen mit GenAI auf YouTube und seinen anderen Plattformen wie der Google-Suche mit einer deutlichen Offenlegung versehen werden müssten, wenn die Bilder oder Töne synthetisch verändert würden. Meta hat außerdem politischen Kampagnen die Verwendung von GenAI-Tools – einschließlich seiner eigenen – für die Werbung auf seinen Websites untersagt.

source-116

Leave a Reply