Googles Gemini wird sich von Wahldiskussionen in Indien fernhalten


Gemini, der KI-Chatbot von Google, beantwortet keine Fragen zu den bevorstehenden nationalen Wahlen in Indien, so das Unternehmen schrieb heute in einem Blogbeitrag. „Aus großer Vorsicht bei einem so wichtigen Thema haben wir damit begonnen, Beschränkungen für die Arten von wahlbezogenen Anfragen einzuführen, auf die Gemini Antworten zurückgibt“, schrieb das Unternehmen. Die Beschränkungen ähneln denen, die Google im Dezember vor den globalen Wahlen in den USA angekündigt hat UNS und das EU.

„Wie wir letzten Dezember mitgeteilt haben, beschränken wir in Vorbereitung auf die vielen Wahlen, die im Jahr 2024 weltweit stattfinden, und aus großer Vorsicht die Arten von wahlbezogenen Anfragen, auf die Gemini Antworten zurückgibt“, schrieb ein Google-Sprecher zu Engadget.

In den USA sind die Leitplanken bereits vorhanden. Als ich Gemini nach interessanten Fakten zur US-Präsidentschaftswahl 2024 fragte, antwortete sie: „Ich lerne immer noch, wie ich diese Frage beantworten soll.“ Versuchen Sie es in der Zwischenzeit mit der Google-Suche.“ Zusätzlich zu Amerikas Rückkampf zwischen Biden und Trump (und den Abstimmungskämpfen, die über die Kontrolle über den Kongress entscheiden werden) werden es mindestens 64 Länder tun, die etwa 49 Prozent der Weltbevölkerung repräsentieren halten Landeswahlen in diesem Jahr.

Als ich ChatGPT von OpenAI mit derselben Frage fragte, lieferte es eine lange Liste von Fakten. Dazu gehörten Bemerkungen zum Präsidentschaftsrückkampf, den frühen Vorwahlen und dem Super Tuesday, der Wählerdemografie und mehr.

OpenAI erläuterte im Januar seine Pläne zur Bekämpfung wahlbezogener Fehlinformationen. Seine Strategie konzentriert sich mehr darauf, falsche Informationen zu verhindern, als überhaupt keine bereitzustellen. Zu seinem Ansatz gehören strengere Richtlinien für die DALL-E-3-Bildgenerierung, das Verbot von Anwendungen, die Menschen vom Wählen abhalten, und die Verhinderung der Erstellung von Chatbots, die sich als Kandidaten oder Institutionen ausgeben.

Es ist verständlich, warum Google mit seinem KI-Bot auf Nummer sicher geht. Gemini brachte das Unternehmen letzten Monat in Schwierigkeiten, als Social-Media-Nutzer Beispiele veröffentlichten, in denen der Chatbot Diversitätsfilter auf „historische Bilder“ anwendete, darunter die Darstellung von Nazis und Amerikas Gründervätern als farbige Menschen. Nach einer Gegenreaktion (hauptsächlich seitens der „Anti-Woke“-Brigade des Internets) wurde die Fähigkeit von Gemini, Menschen zu generieren, unterbrochen, bis die Probleme behoben werden konnten. Google hat diese Sperre noch nicht aufgehoben und antwortet nun auf Anfragen zu Bildern von Personen: „Leider konnte ich die von Ihnen angeforderten Bilder nicht generieren.“

source-115

Leave a Reply