Instagram und Facebook überarbeiten Feeds, um verstörende Inhalte vor jungen Nutzern zu verbergen


Kritiker sagen, dass Meta oft verursacht hat schwerwiegender psychischer Schaden an jüngere Benutzer, indem sie ihnen eine Vielzahl giftiger und unangemessener Inhalte ausgesetzt werden. Essstörungen, Depressionen Und sogar Selbstmord Die Schuld dafür wird den Algorithmen des Unternehmens zugeschrieben, und die Rufe nach einer Reform dieser Algorithmen sind in letzter Zeit so laut geworden, dass man sie offenbar nicht mehr ignorieren kann.

Der Social-Media-Gigant angekündigt Am Dienstag gab es neue Änderungen an seinem Inhaltsfiltersystem, die darauf abzielen, jüngere Benutzer von schädlichen, verstörenden Inhalten fernzuhalten. Die Plattform hofft, dass diese Änderungen es Teenagern ermöglichen werden, bei jedem Besuch von Facebook und Instagram „sichere, altersgerechte Erfahrungen“ zu machen.

Wie sehen diese Veränderungen eigentlich aus? Meta sagt, dass es neue Schutzmaßnahmen für Konten eingeführt hat, die sich selbst als unter 18 Jahre alt bezeichnen. Das System schränkt nun die Möglichkeit jüngerer Benutzer ein, auf bestimmte Arten von Inhalten zu stoßen – wie Beiträge über Essstörungen und Selbstverletzung – selbst wenn dies der Fall ist Beiträge werden von jemandem geteilt, dem sie folgen. Laut a aktueller Blogbeitrag Von Meta wird das Unternehmen…

… beginnen, diese Art von Inhalten aus den Erlebnissen von Teenagern auf Instagram und Facebook zu entfernen, ebenso wie andere Arten von nicht altersgemäßen Inhalten. Unser Ziel ist es bereits, diese Art von Inhalten für Jugendliche auf Plattformen wie „Reels“ und „Explore“ nicht zu empfehlen, und mit diesen Änderungen werden wir sie Jugendlichen nicht mehr in „Feeds“ und „Stories“ zeigen, selbst wenn sie von jemandem geteilt werden, dem sie folgen.

Das Unternehmen gibt an, dass es jüngeren Benutzern auch das Auffinden verstörender Inhalte in den Feldern „Suchen“ und „Erkunden“ erschweren wird und dass sexuelle Inhalte nicht für Konten angezeigt werden, die sich als unter 16 Jahre alt identifizieren. Wenn Jugendliche nach beunruhigenden Inhalten wie Selbstmord oder Selbstverletzung suchen, werden sie an „Expertenquellen für Hilfe“ verwiesen. Alle diese Änderungen werden voraussichtlich in den nächsten Wochen in Kraft treten.

Warum macht Meta das alles jetzt? Nun, es könnte etwas damit zu tun haben, dass das Unternehmen derzeit aktiv ist verklagt von über 40 Landesregierungen. Der massive, gemeinsame Klage Eine im Oktober von Dutzenden Generalstaatsanwälten eingereichte Klage wirft dem Social-Media-Riesen vor, „dopaminmanipulierende Funktionen“ zu verwenden, um junge Nutzer auf seine Websites zu locken und so eine „Sucht zur Steigerung der Unternehmensgewinne“ zu fördern. Meta scheint nun seinen Arsch mit einem zu wenig, zu späten Politikwechsel zu bedecken, der eigentlich schon vor Jahren hätte erfolgen sollen.

Wenn die Änderungen von Meta besser sind als nichts, ist es etwas unklar, wie die Plattform mit Teenagern umgehen will, die bei der Anmeldung über ihr Alter lügen. Wir alle wissen, dass Teenager vorgeben, älter zu sein, als sie sind aus verschiedenen Gründen – nämlich um sie in die Hände zu bekommen Drogen und Alkohol. Angesichts der Tatsache, dass es wesentlich einfacher ist, beim Beitritt zu einer Internetplattform über Ihr Alter zu lügen, als sich einen gefälschten Ausweis zu sichern, ist es irgendwie unklar, warum Meta glaubt, dass junge Benutzer ihr Alter nicht überlisten können nicht optimale Systeme zur Altersüberprüfung. Gizmodo hat sich für weitere Informationen an Meta gewandt und wird diese Geschichte aktualisieren, wenn das Unternehmen antwortet.

In der Vergangenheit hat Meta bescheidene Anstrengungen unternommen, um zu regulieren, wer was auf seinen Plattformen sehen kann, obwohl man argumentieren könnte, dass es sich dabei um den Inhaltsmoderationsprozess handelt ist immer noch ein totales Durcheinander. Das Unternehmen behauptet, dass Es hat „mehr als 30 Tools und Ressourcen entwickelt, um Jugendliche und ihre Eltern zu unterstützen, und wir haben über ein Jahrzehnt damit verbracht, Richtlinien und Technologien zu entwickeln, um Inhalte zu bekämpfen, die gegen unsere Regeln verstoßen oder als sensibel angesehen werden könnten.“

source-113

Leave a Reply