EU ermittelt gegen Meta wegen Sucht und Sicherheitsbedenken für Minderjährige


Meta ist wegen seiner Methoden (oder deren Fehlen) zum Schutz von Kindern wieder in Schwierigkeiten. Die Europäische Kommission hat ein förmliches Verfahren eingeleitet um festzustellen, ob der Eigentümer von Facebook und Instagram gegen den Digital Services Act (DSA) verstoßen hat, indem er zur Social-Media-Sucht von Kindern beigetragen und nicht dafür gesorgt hat, dass ihnen ein hohes Maß an Sicherheit und Privatsphäre gewährleistet ist.

Bei der Untersuchung der Kommission wird insbesondere untersucht, ob Meta die von den Schnittstellen seiner Plattformen ausgehenden Risiken ordnungsgemäß einschätzt und gegen sie vorgeht. Sie befürchtet, dass ihre Entwürfe „die Schwächen und Unerfahrenheit von Minderjährigen ausnutzen und Suchtverhalten hervorrufen und/oder den sogenannten ‚Kaninchenbau‘-Effekt verstärken könnten“. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts entgegenzuwirken das körperliche und geistige Wohlergehen von Kindern sowie die Achtung ihrer Rechte.“

In dem Verfahren wird auch untersucht, ob Meta die notwendigen Schritte unternimmt, um zu verhindern, dass Minderjährige auf unangemessene Inhalte zugreifen, ob Meta über wirksame Tools zur Altersüberprüfung verfügt und ob Minderjährige über unkomplizierte, starke Datenschutztools wie Standardeinstellungen verfügen.

Der DSA legt Standards für sehr große Online-Plattformen und Suchmaschinen (solche mit 45 Millionen oder mehr monatlichen Nutzern in der EU) wie Meta fest. Zu den Pflichten der benannten Unternehmen gehören Transparenz bei Entscheidungen über Werbung und Moderation von Inhalten, die Weitergabe ihrer Daten an die Kommission und die Untersuchung von Risiken, die ihre Systeme in Bereichen wie geschlechtsspezifische Gewalt, psychische Gesundheit und Schutz von Minderjährigen mit sich bringen.

Meta reagierte auf das formelle Verfahren mit dem Hinweis auf Funktionen wie Einstellungen für die elterliche Aufsicht, den Ruhemodus und die automatische Einschränkung von Inhalten für Jugendliche. „Wir möchten, dass junge Menschen sichere, altersgerechte Online-Erlebnisse haben, und haben ein Jahrzehnt damit verbracht, mehr als 50 Tools und Richtlinien zu ihrem Schutz zu entwickeln. Dies ist eine Herausforderung, vor der die gesamte Branche steht, und wir freuen uns darauf, Einzelheiten zu unserer Entwicklung mitzuteilen.“ „Wir arbeiten mit der Europäischen Kommission zusammen“, sagte ein Meta-Sprecher Engadget.

Allerdings hat Meta es immer wieder versäumt, der Sicherheit junger Menschen Priorität einzuräumen. Zu den früheren alarmierenden Vorfällen gehört der Algorithmus von Instagram, der Inhalte vorschlägt, in denen die sexuelle Ausbeutung von Kindern thematisiert wird, und die Behauptung, dass das Unternehmen seine Plattformen so gestaltet, dass sie junge Menschen süchtig machen, während es gleichzeitig psychisch schädliche Inhalte wie die Förderung von Essstörungen und Körperdysmorphien vorschlägt.

Meta dient bekanntermaßen auch als Drehscheibe für Fehlinformationen für Menschen jeden Alters. Die Kommission hat bereits am 30. April ein formelles Verfahren gegen das Unternehmen eingeleitet, weil sie Bedenken hinsichtlich irreführender Werbung, Datenzugriff für Forscher und des Fehlens eines „wirksamen Echtzeit-Instruments für den bürgerschaftlichen Diskurs und die Wahlüberwachung durch Dritte“ vor den Wahlen zum Europäischen Parlament im Juni hatte. unter anderem Sorgen. Anfang des Jahres kündigte Meta an, dass CrowdTangle, das öffentlich gezeigt hat, wie Fake News und Verschwörungstheorien auf Facebook und Instagram verbreitet werden, im August vollständig eingestellt wird.

source-115

Leave a Reply