Plattformen bekämpfen Online-Missbrauch – aber nicht die richtige Art


Wir sind alle laufen Gefahr, gelegentlich belästigt zu werden – aber für einige ist Belästigung ein alltäglicher Bestandteil des Online-Lebens. Insbesondere viele Frauen im öffentlichen Leben erleben chronischen Missbrauch: anhaltende, unerbittliche und oft koordinierte Angriffe, die bedrohlich und häufig sexuell und explizit sind. Die schottische Premierministerin Nicola Sturgeon und die frühere neuseeländische Premierministerin Jacinda Ardern beispielsweise haben beide im Internet vielfach gemeldete Missbräuche erlitten. Ebenso eine neuere UNESCO Bericht Einzelheiten zu Online-Gewalt gegen Journalistinnen fanden die mit dem Nobelpreis ausgezeichnete Journalistin Maria Ressa und die britische Journalistin Carole Cadwalladr war Angriffen ausgesetzt, die „kontinuierlich und anhaltend waren, mit mehreren Spitzen pro Monat, die zu intensivem Missbrauch führten“.

Wir, zwei Forscher und Praktiker, die sich mit dem verantwortungsvollen Umgang mit Technologie beschäftigen und mit Social-Media-Unternehmen zusammenarbeiten, nennen das chronischer Missbrauch, weil es nicht einen einzigen auslösenden Moment, keine Debatte oder Position gibt, die das ständige Feuer der Angriffe entfacht. Aber ein Großteil der Gespräche über Online-Missbrauch – und, was noch wichtiger ist, die Werkzeuge, die wir haben, um ihn anzugehen – konzentriert sich auf das, was wir das nennen akut Fälle. Akuter Missbrauch ist oft eine Reaktion auf eine Debatte, eine Position oder eine Idee: ein polarisierender Tweet, ein neues Buch oder ein neuer Artikel, eine öffentliche Äußerung. Akuter Missbrauch lässt schließlich nach.

Plattformen verfügen über spezielle Ressourcen, um akuten Missbrauch zu bekämpfen. Angegriffene Benutzer können Personen direkt blockieren und Inhalte oder andere Konten stumm schalten, Maßnahmen, die sicherstellen, dass sie auf der Plattform existieren können, sie aber vor Inhalten schützen, die sie nicht sehen möchten. Sie können Interaktionen mit Personen außerhalb ihrer Netzwerke mithilfe von Tools wie geschlossenen Nachrichten und privaten Konten einschränken. Es gibt auch Anwendungen von Drittanbietern, die versuchen, diese Lücke zu schließen, indem sie Inhalte proaktiv stummschalten oder filtern.

Diese Tools eignen sich gut für den Umgang mit episodischen Angriffen. Aber für Journalisten, Politiker, Wissenschaftler, Schauspieler – wirklich alle, die sich für ihre Arbeit auf eine Online-Verbindung verlassen – sind sie völlig unzureichend. Das Blockieren und Stummschalten bringt wenig für fortlaufende koordinierte Angriffe, da ganze Gruppen einen kontinuierlichen Strom von Belästigungen von verschiedenen Konten aufrechterhalten. Selbst wenn Benutzer ihre Belästiger erfolgreich blockieren, sind die anhaltenden Auswirkungen auf die psychische Gesundheit, wenn sie eine Flut von Angriffen sehen, immens; Mit anderen Worten, der Schaden ist bereits angerichtet. Dies sind rückwirkende Werkzeuge, die nur nützlich sind, nachdem jemandem Schaden zugefügt wurde. Das Schließen von Direktnachrichten und das Privatisieren eines Kontos kann das Opfer eines akuten Angriffs schützen; Sie können wieder an die Öffentlichkeit gehen, nachdem die Belästigung abgeklungen ist. Dies sind jedoch keine realistischen Optionen für chronisch Missbrauchte, da sie die Menschen mit der Zeit nur aus dem breiteren Online-Diskurs entfernen.

Plattformen müssen mehr tun, um Safety-by-Design zu verbessern, einschließlich Upstream-Lösungen wie die Verbesserung der menschlichen Inhaltsmoderation, der effektivere Umgang mit Benutzerbeschwerden und das Drängen auf bessere Systeme, um sich um Benutzer zu kümmern, die chronischem Missbrauch ausgesetzt sind. Organisationen wie Panne arbeiten daran, Menschen über den Online-Missbrauch von Frauen und ausgegrenzten Menschen aufzuklären, und stellen gleichzeitig Ressourcen bereit, um Menschen bei der Bekämpfung dieser Angriffe zu helfen, einschließlich der Anpassung von Schulungstechniken für Zuschauer für die Online-Welt, der Aufforderung an Plattformunternehmen, ihre Meldemechanismen zu verbessern, und der Forderung nach einer Änderung der Politik.

Aber Toolkits und Anleitungen sind zwar äußerst hilfreich, lasten aber immer noch die Last der Verantwortung auf den Schultern der Missbrauchten. Auch die Politik muss ihren Teil dazu beitragen, Plattformen für die Bekämpfung chronischen Missbrauchs verantwortlich zu machen. Das britische Online-Sicherheitsgesetz ist ein Mechanismus, der Plattformen dafür verantwortlich machen könnte, Missbrauch einzudämmen. Der Gesetzentwurf würde große Unternehmen zwingen, ihre Richtlinien zum Entfernen missbräuchlicher Inhalte und zum Blockieren von Missbrauchern in ihren Nutzungsbedingungen klarer zu gestalten. Es würde Unternehmen auch rechtlich verpflichten, Benutzern optionale Tools anzubieten, die ihnen helfen, die Inhalte zu kontrollieren, die sie in sozialen Medien sehen. Die Debatte über den Gesetzentwurf hat jedoch einige vorgeschlagene Schutzmaßnahmen für Erwachsene im Namen der Meinungsfreiheit geschwächt, und der Gesetzentwurf konzentriert sich immer noch auf Tools, die Benutzern helfen, Entscheidungen zu treffen, und nicht auf Tools und Lösungen, die dazu beitragen, Missbrauch im Vorfeld zu stoppen.

source-114

Leave a Reply