Insider sagen, dass das Crowdsourcing-Anti-Desinformations-Tool von X das Problem verschlimmert


Am Samstag veröffentlichte der offizielle israelische Account auf X ein Bild von etwas, das wie ein Kinderzimmer aussieht, mit Blut auf dem Boden. „Das könnte das Schlafzimmer Ihres Kindes sein. Keine Worte“, heißt es in dem Beitrag. Es gibt keinen Hinweis darauf, dass das Bild gefälscht ist, und öffentlich gibt es keine Hinweise auf den Beitrag. Allerdings liefern sich im Community Notes-Backend, das von WIRED eingesehen wird, mehrere Mitwirkende ein von Verschwörungen angeheiztes Hin und Her.

„Sauerstoffarmes Blut hat einen dunkelroten Farbton, daher ist dies inszeniert“, schrieb ein Mitarbeiter. „Ein Beitrag mit manipulativer Absicht, der versucht, eine emotionale Reaktion beim Leser hervorzurufen, indem Wörter und Bilder auf dekontextualisierte Weise in Beziehung gesetzt werden“, schreibt ein anderer.

„Es gibt keine Beweise dafür, dass dieses Bild inszeniert ist. Ein Wikipedia-Artikel über Blut ist kein Beweis dafür, dass dies inszeniert ist“, schreibt ein anderer Mitarbeiter.

„Es gibt keine Beweise dafür, dass dieses Foto von den Anschlägen vom 7. Oktober stammt“, behauptet ein anderer.

Diese Art des Austauschs wirft Fragen darüber auf, wie X Mitwirkende für das Programm genehmigt, aber dies sowie die genauen Faktoren, die vor der Genehmigung jeder Notiz berücksichtigt werden, bleiben unbekannt. Benarroch von X antwortete nicht auf Fragen zur Auswahl der Mitwirkenden.

Laut allen Mitwirkenden, mit denen WIRED gesprochen hat, erhält keiner der für das System zugelassenen Personen eine Schulung, und die einzige Einschränkung, die den Mitwirkenden zunächst auferlegt wird, besteht darin, dass sie nicht in der Lage sind, neue Notizen zu schreiben, bis sie zuvor eine Reihe anderer Notizen bewertet haben. Ein Mitwirkender behauptet, dass dieser Genehmigungsprozess weniger als sechs Stunden dauern kann.

Damit Notizen öffentlich an einen Beitrag angehängt werden können, müssen sie von einer bestimmten Anzahl von Mitwirkenden als „hilfreich“ genehmigt werden, wobei unklar ist, wie viele. X beschreibt „hilfreiche“ Notizen als solche, die „genügend Mitwirkende aus verschiedenen Perspektiven“ erhalten. Benarroch sagte nicht, wie X die politischen Neigungen eines Benutzers bewertet. Allerdings nutzte das System zumindest zuvor eine Technik namens Brückenbasiertes Ranking um Notizen zu bevorzugen, die positive Interaktionen von Benutzern erhalten, von denen angenommen wird, dass sie unterschiedliche Standpunkte vertreten. Dennoch ist zumindest einigen Community Notes-Mitwirkenden nicht klar, wie das funktioniert.

„Ich sehe keinen Mechanismus, mit dem sie herausfinden können, welche Perspektive die Leute vertreten“, sagt Anna, eine in Großbritannien lebende ehemalige Journalistin, die X eingeladen hat, Community Notes-Mitarbeiterin zu werden, gegenüber WIRED. „Ehrlich gesagt, kann ich mir überhaupt nicht vorstellen, wie das funktionieren soll, weil neue Themen auftauchen, für die man unmöglich eine Bewertung hätte abgeben können.“ Aus Angst vor Gegenreaktionen anderer X-Benutzer wollte Anna nur mit ihrem Vornamen identifiziert werden.

source-114

Leave a Reply