Die Jagd nach den Desinformations-Maulwürfen von Wikipedia


Diese Netzwerkzuordnung kann auch eine bestimmte Strategie identifizieren, die von schlechten Akteuren verwendet wird, um ihre Bearbeitungsverläufe auf eine Reihe von Konten aufzuteilen, um der Erkennung zu entgehen. Die Redakteure bemühten sich, Reputation und Status innerhalb der Wikipedia-Community aufzubauen, indem sie legitime Seitenbearbeitungen mit den politisch sensibleren mischten.

„Die wichtigste Botschaft, die ich aus all dem mitgenommen habe, ist, dass die Hauptgefahr nicht Vandalismus ist. Es ist Entryismus“, sagt Miller.

Wenn die Theorie stimmt, bedeutet dies jedoch, dass es auch für staatliche Akteure Jahre der Arbeit sein könnte, eine Desinformationskampagne zu starten, die unbemerkt durchschlüpfen kann.

„Russische Einflussoperationen können ziemlich ausgeklügelt sein und lange dauern, aber ich bin mir nicht sicher, ob die Vorteile so groß wären“, sagt O’Neil.

Regierungen verfügen zudem oft über stumpfere Instrumente. Im Laufe der Jahre haben autoritäre Führer die Seite blockiert, zog seine Regierungsorganisation vor Gerichtund seine Redakteure verhaftet.

Wikipedia kämpft seit 21 Jahren gegen Ungenauigkeiten und Falschinformationen. Einer der langwierigsten Desinformationsversuche dauerte mehr als ein Jahrzehnt, nachdem eine Gruppe von Ultranationalisten die Administratorregeln von Wikipedia gespielt hatte, um sie zu übernehmen über die kroatische Sprache Gemeinschaft, die die Geschichte umschreibt, um die faschistischen Führer des Landes aus dem Zweiten Weltkrieg zu rehabilitieren. Die Plattform war auch anfällig für „Reputationsmanagement“-Bemühungen, die darauf abzielten, die Biografien mächtiger Personen zu verschönern. Dann gibt es regelrechte Falschmeldungen. Im Jahr 2021 wurde festgestellt, dass ein chinesischer Wikipedia-Redakteur Jahre verbracht hatte Schreiben 200 Artikel zur fabrizierten Geschichte des mittelalterlichen Russlands, komplett mit imaginären Staaten, Aristokraten und Schlachten.

Um dem entgegenzuwirken, hat Wikipedia eine Sammlung komplizierter Regeln, Leitungsgremien und öffentlicher Diskussionsforen entwickelt, die von einem selbstorganisierten und selbstverwalteten Gremium mit 43 Millionen registrierten Benutzern auf der ganzen Welt geführt werden.

Nadee Gunasena, Chief of Staff and Executive Communications bei der Wikimedia Foundation, sagt, dass die Organisation „ein tiefes Eintauchen in das Wikimedia-Modell und unsere Projekte begrüßt“, insbesondere im Bereich der Desinformation. Sie fügt aber auch hinzu, dass die Recherche nur einen Teil des Bearbeitungsverlaufs des Artikels abdeckt.

„Wikipedia-Inhalte werden durch eine Kombination aus maschinellen Lernwerkzeugen und strenger menschlicher Aufsicht durch freiwillige Redakteure geschützt“, sagt Gunasena. Alle Inhalte, einschließlich der Historie jedes Artikels, sind öffentlich, während die Beschaffung auf Neutralität und Zuverlässigkeit geprüft wird.

Die Tatsache, dass sich die Recherche auf bereits gefundene und ausgerottete Bösewichte konzentrierte, könnte auch zeigen, dass das System von Wikipedia funktioniert, fügt O’Neil hinzu. Aber obwohl die Studie keine „rauchende Waffe“ hervorgebracht hat, könnte sie für Wikipedia von unschätzbarem Wert sein: „Die Studie ist wirklich ein erster Versuch, verdächtiges Bearbeitungsverhalten zu beschreiben, damit wir diese Signale verwenden können, um es anderswo zu finden“, sagt Miller.

Victoria Doronina, ein Mitglied des Kuratoriums der Wikimedia Foundation und Molekularbiologin, sagt, dass Wikipedia in der Vergangenheit Ziel koordinierter Angriffe von „Kabalen“ gewesen sei, die darauf abzielen, seinen Inhalt zu beeinflussen.

„Während einzelne Redakteure in gutem Glauben handeln und eine Kombination verschiedener Standpunkte die Erstellung neutraler Inhalte ermöglicht, ermöglicht die Off-Wiki-Koordination einer bestimmten Gruppe, die Erzählung zu verzerren“, sagt sie. Wenn Miller und seine Forscher richtig liegen, staatliche Strategien zur Beeinflussung von Wikipedia zu identifizieren, könnte der nächste Kampf am Horizont „Wikimedianer gegen staatliche Propaganda“ lauten, fügt Doronina hinzu.

Das analysierte Verhalten der schlechten Schauspieler, sagt Miller, könnte verwendet werden, um Modelle zu erstellen, die Desinformationen erkennen und herausfinden können, wie anfällig die Plattform für die Formen systematischer Manipulation ist, die auf Facebook, Twitter, YouTube, Reddit und anderen aufgedeckt wurden andere große Plattformen.

Die englischsprachige Ausgabe von Wikipedia hat 1.026 Administratoren Überwachung von über 6,5 Millionen Seiten, die meisten Artikel einer Ausgabe. Das Aufspüren von schlechten Schauspielern hat sich meistens darauf verlassen, dass jemand verdächtiges Verhalten gemeldet hat. Aber ein Großteil dieses Verhaltens ist ohne die richtigen Tools möglicherweise nicht sichtbar. Aus datenwissenschaftlicher Sicht ist es schwierig, Wikipedia-Daten zu analysieren, da Wikipedia im Gegensatz zu einem Tweet oder einem Facebook-Post viele Versionen desselben Textes enthält.

Wie Miller es erklärt, „kann ein menschliches Gehirn einfach nicht Hunderttausende von Bearbeitungen auf Hunderttausenden von Seiten identifizieren, um zu sehen, wie die Muster aussehen.“

source-114

Leave a Reply