Berichten zufolge wird Meta seine KI-Werbetools politischen Vermarktern nicht zur Verfügung stellen


Facebook ist kein Unbekannter darin, Fehlinformationen auf seiner Plattform zu moderieren und einzudämmen, da es seit langem maschinelles Lernen und Systeme der künstlichen Intelligenz einsetzt, um seine von Menschen geleiteten Moderationsbemühungen zu ergänzen. Anfang Oktober weitete das Unternehmen seine Expertise im Bereich maschinelles Lernen auf seine Werbemaßnahmen aus ein experimenteller Satz generativer KI-Tools das Aufgaben wie das Erstellen von Hintergründen, das Anpassen von Bildern und das Erstellen von Untertiteln für den Videoinhalt eines Werbetreibenden ausführen kann. Reuters berichtet am Montag, dass Meta diese Tools politischen Vermarktern vor dem voraussichtlich brutalen und spaltenden nationalen Wahlzyklus ausdrücklich nicht zur Verfügung stellen wird.

Die Entscheidung von Meta, den Einsatz generativer KI zu verbieten, steht im Einklang mit einem Großteil des Social-Media-Ökosystems, obwohl das Unternehmen, wie Reuters schnell betont, „die Entscheidung in keiner Aktualisierung seiner Werbestandards öffentlich bekannt gegeben hat“. TikTok und Snap verbieten beide politische Werbung in ihren Netzwerken, Google verwendet eine „Keyword-Blacklist“, um zu verhindern, dass seine generativen KI-Werbetools in die politische Sprache abdriften, und X (ehemals Twitter) ist, nun ja, Sie haben es gesehen.

Meta lässt eine große Bandbreite an Ausnahmen von dieser Regel zu. Das Tool-Verbot erstreckt sich nur auf „irreführende KI-generierte Videos in allen Inhalten, einschließlich organischer, nicht bezahlter Beiträge, mit Ausnahme von Parodien oder Satire“, heißt es in der Erklärung Reuters. Diese Ausnahmen werden derzeit vom unabhängigen Aufsichtsgremium des Unternehmens im Rahmen eines Falles geprüft, in dem Meta ein „verändertes“ Video von Präsident Biden hinterlassen hat, weil es, so argumentierte das Unternehmen, nicht von einer KI erstellt wurde.

Facebook und andere führende KI-Unternehmen aus dem Silicon Valley stimmten im Juli freiwilligen Verpflichtungen des Weißen Hauses zu, die technische und politische Sicherheitsvorkehrungen für die Entwicklung ihrer künftigen generativen KI-Systeme treffen. Dazu gehören die Ausweitung der Bemühungen des kontradiktorischen maschinellen Lernens (auch Red-Teaming genannt), um schlechtes Modellverhalten auszumerzen, der Austausch von Vertrauens- und Sicherheitsinformationen sowohl innerhalb der Branche als auch mit der Regierung sowie die Entwicklung eines digitalen Wasserzeichensystems zur Authentifizierung und Klarstellung offizieller Inhalte dass es nicht KI-generiert ist.

source-115

Leave a Reply