Liberale lassen Plan fallen, um die Entfernung „schädlicher Inhalte“ nach Zensurvorwürfen zu erzwingen


Der neue Vorschlag verpflichtet Plattformen, „angemessene Schritte zu unternehmen, um vorhersehbare Schäden, die sich aus dem Betrieb und der Gestaltung ihrer Dienste ergeben, zu identifizieren und zu mindern“.

Inhalt des Artikels

Die liberale Bundesregierung plant, ihren umstrittenen Vorschlag zur Regulierung von „Online-Schäden“ auf einen Ansatz umzustellen, der digitale Plattformen in die Pflicht nimmt, mit potenziell schädlichen Inhalten umzugehen. Der Schritt erfolgt, nachdem Kritiker gewarnt hatten, dass der ursprüngliche Plan auf Zensur hinauslaufen würde, und neue Dokumente, die von einer von der Regierung ernannten Beratergruppe veröffentlicht wurden, zeigen, dass sie eine Änderung des Ansatzes unterstützten.

Werbung 2

Inhalt des Artikels

Die meisten „wenn nicht alle“ Mitglieder der von Heritage Canada ernannten Beratungsgruppe haben jedoch vorgeschlagen, dass die Kategorien der angestrebten Schäden erweitert werden sollten, um unter anderem „irreführende politische Kommunikation“, „Propaganda“ und Online-Inhalte, die Werbung machen, einzuschließen ein „unrealistisches Körperbild“. Die Regierung hat noch nicht mitgeteilt, ob sie alle Empfehlungen der Gruppe annehmen wird.

Eine Reihe von Arbeitsblättern, die kürzlich von Heritage Canada online gestellt wurden, signalisieren, dass sich die Regierung von ihrem ursprünglichen Plan für ein „Regime auf der Grundlage starrer Moderationsverpflichtungen“ entfernt, in dem Ottawa Plattformen angewiesen hätte, Inhalte, die sie als schädlich erachtet, innerhalb von 24 Stunden oder sonst zu entfernen Strafen.

Stattdessen würde sich ein „aktualisierter Ansatz“ auf einen „allgemeinen Rahmen“ konzentrieren, der Plattformen zwingt, das Risiko zu bewerten, das von schädlichen Inhalten auf ihren Diensten ausgeht, und Einzelheiten darüber bereitzustellen, wie sie das identifizierte Risiko mindern und auf Fälle von Online-Schäden auf ihren Plattformen reagieren werden. ”

Der erste Versuch der Regierung, Inhalte zu regulieren, wurde in einer Konsultation im vergangenen Jahr weithin kritisiert. Internetexperten, Akademiker, Google, Bürgerrechtsgruppen und Forschungsbibliothekare warnten davor, dass der vorgeschlagene Plan zur Sperrung legitimer Inhalte und zur Zensur führen und die Verfassungs- und Datenschutzrechte der Kanadier verletzen würde.

Werbung 3

Inhalt des Artikels

Der ursprüngliche Regulierungsplan der Regierung hätte fünf Kategorien von Inhalten erfasst: terroristische Inhalte, Inhalte, die zu Gewalt aufstacheln, Hassreden, intime Bilder, die nicht einvernehmlich geteilt werden, und sexuelle Ausbeutung von Kindern. Plattformen hätten auch Posten proaktiv überwachen müssen, zusätzlich zu staatlichen Abschaltbefehlen.

Im Februar kündigte die Regierung an, den Vorschlag nach dem kritischen Feedback zu überarbeiten, und im März ernannte Kulturerbeminister Pablo Rodriguez eine „Experten-Beratungsgruppe“, die Ratschläge zur Neugestaltung der Gesetzgebung geben sollte.

Die 12-köpfige Gruppe beendete ihre Sitzungen am 10. Juni. Canadian Heritage teilte in einer Pressemitteilung diese Woche mit, eine endgültige Zusammenfassung der Ergebnisse und Schlussfolgerungen der Gruppe werde in den kommenden Wochen veröffentlicht.

Die Regierung hat Zusammenfassungen der wöchentlichen Treffen der Gruppe sowie Arbeitsblätter veröffentlicht, die die „vorläufigen Ideen“ der Regierung zur Aktualisierung des Gesetzesvorschlags skizzieren.

Der neue Ansatz würde derzeit dieselben fünf Kategorien von Inhalten regulieren und „Dienste abdecken, die Kanadier intuitiv mit dem Begriff Social-Media-Plattform assoziieren“ – insbesondere Facebook, YouTube, Instagram, Twitter und TikTok nennen – sowie solche, die „ein erhebliches Risiko darstellen“. in Bezug auf die Verbreitung schädlicher Inhalte“, wie die Pornoseite PornHub.

Nachrichten, die über die privaten Nachrichtenfunktionen von Plattformen wie Facebook Messenger gesendet werden, würden nicht erfasst.

Werbung 4

Inhalt des Artikels

Eine neue Aufsichtsbehörde namens Digital Safety Commissioner würde das Rahmenwerk durchsetzen, mit der Möglichkeit, Anordnungen zu erlassen und Bußgelder zu erheben, und mit „Audit- und Inspektionsbehörden“ ausgestattet werden.

Der neue Vorschlag soll einen „Sorgfaltspflicht“-Ansatz verfolgen und Plattformen dazu verpflichten, „angemessene Schritte zu unternehmen, um vorhersehbare Schäden zu identifizieren und zu mindern, die sich aus dem Betrieb und der Gestaltung ihrer Dienste ergeben“.

Das bedeutet, dass die Plattformen digitale Sicherheitspläne bei der Regulierungsbehörde einreichen müssten, die von ihnen verlangen würden, „eine Risikobewertung der schädlichen Inhalte auf ihren Plattformen durchzuführen und ihre Minderungsmaßnahmen, Systeme und Prozesse zur Bewältigung solcher Risiken detailliert zu beschreiben“, so die Regierung skizziert.

„Das Regime würde grundlegende Standards dafür festlegen, wie schädliche Inhalte definiert und von regulierten Diensten überwacht und moderiert werden“, heißt es in einem von der Regierung veröffentlichten Arbeitsblatt. Die Idee ist, dass, solange die Plattformen über angemessene Systeme verfügen, sie nicht dafür bestraft würden, „zu einer vernünftigen Schlussfolgerung darüber zu gelangen, ob der Inhalt den gesetzlichen Definitionen von schädlichen Inhalten entspricht“.

Bei einem Treffen der 12 Berater im April drückten die meisten ihre Unterstützung dafür aus, „über einen ‚Take-down’-Ansatz zur Regulierung von Inhalten hinauszugehen“ und „stattdessen Anreize für Plattformen zum Risikomanagement bei der Entwicklung ihrer Produkte zu schaffen“, eine von Canadian Heritage veröffentlichte Zusammenfassung sagte.

Der neue Ansatz ähnelt dem, den die britische Regierung in ihrem Online-Sicherheitsgesetz vorgeschlagen hat. Einer der Vorteile eines systembasierten Ansatzes, so das Heritage-Arbeitsblatt, besteht darin, dass er „darauf abzielt, die Beschränkungen der Meinungsfreiheit innerhalb angemessener Grenzen zu minimieren und durch Verfahrensgerechtigkeit und Schutzmaßnahmen abzumildern“.

Werbung 5

Inhalt des Artikels

In einer Zusammenfassung eines Treffens vom 21. April heißt es, dass mehrere „Experten betonten, dass es für jeden gewählten Rahmen von entscheidender Bedeutung wäre, dass er keinen Anreiz für ein allgemeines Überwachungssystem schafft“.

Einige äußerten sich auch besorgt darüber, „die Pflicht zur Berücksichtigung der Grundrechte an Privatunternehmen auszulagern“, insbesondere in Kanada, „da Kanada ihrer Meinung nach keine klare Artikulation dessen hat, was Meinungsfreiheit bedeutet“.

Sie sagten, es sei „besonders wichtig, in der Gesetzgebung so klar wie möglich darzulegen, was von regulierten Diensten erwartet wird, wenn es um die Berücksichtigung der Grundrechte und -freiheiten ihrer Nutzer geht“.

Viele „betonten auch, dass es Bedenken hinsichtlich der Charta bei einem Rahmenwerk geben würde, das darauf abzielt, Dienste dazu zu verpflichten, Inhalte zu entfernen, die nicht illegal sind.“

Aber gleichzeitig sagten die meisten, „wenn nicht alle“, der Regierung, dass der Geltungsbereich der Gesetzgebung erweitert werden sollte.

Zusätzlich zu den fünf von der Regierung vorgeschlagenen Kategorien von Inhalten gaben sie an, dass der Rahmen auch eine Reihe von sowohl illegalen als auch legalen, aber möglicherweise schädlichen Inhalten umfassen sollte, darunter Betrug, Cybermobbing, Verleumdung, „Propaganda“, „irreführende politische Kommunikation“. und „Massenweitergabe traumatischer Vorfälle“.

Sie schlugen auch vor, auf Inhalte und Algorithmen abzuzielen, die zu einem „unrealistischen Körperbild“ und „Isolation oder verminderter Gedächtniskonzentration und Konzentrationsfähigkeit“ beitragen. Die Regierung konsultierte die Experten auch darüber, wie sie gegen Desinformation vorgehen könnte.

Diese verschiedenen Arten von Inhalten werden nicht unbedingt gleich behandelt. „Viele Experten empfahlen, dass das Rahmenwerk zwischen illegalen und legalen, aber schädlichen Inhalten unterscheidet und den regulierten Diensten für jede Art von Inhalten unterschiedliche Verpflichtungen auferlegt“, heißt es in der Zusammenfassung.

Anzeige 1

Kommentare

Postmedia ist bestrebt, ein lebendiges, aber zivilisiertes Forum für Diskussionen zu unterhalten und alle Leser zu ermutigen, ihre Ansichten zu unseren Artikeln mitzuteilen. Die Moderation von Kommentaren kann bis zu einer Stunde dauern, bevor sie auf der Website erscheinen. Wir bitten Sie, Ihre Kommentare relevant und respektvoll zu halten. Wir haben E-Mail-Benachrichtigungen aktiviert – Sie erhalten jetzt eine E-Mail, wenn Sie eine Antwort auf Ihren Kommentar erhalten, es ein Update zu einem Kommentar-Thread gibt, dem Sie folgen, oder wenn ein Benutzer, dem Sie folgen, Kommentaren folgt. Weitere Informationen und Details zum Anpassen Ihrer E-Mail-Einstellungen finden Sie in unseren Community-Richtlinien.



Source link-44