Google hat davor gewarnt, dass ein Urteil dagegen in einem laufenden Fall des Obersten Gerichtshofs (SC) das gesamte Internet gefährden könnte, indem ein wichtiger Schutz vor Klagen über Entscheidungen zur Moderation von Inhalten, die künstliche Intelligenz (KI) beinhalten, aufgehoben wird.
Abschnitt 230 des Communications Decency Act von 1996 (öffnet in neuem Tab) bietet derzeit einen pauschalen „Haftungsschutz“ in Bezug darauf, wie Unternehmen Inhalte auf ihren Plattformen moderieren.
Allerdings, wie von berichtet CNN (öffnet in neuem Tab)schrieb Google in a rechtliche Einreichung (öffnet in neuem Tab) dass das Internet mit gefährlichen, anstößigen und extremistischen Inhalten überflutet werden könnte, sollte das SC im Fall Gonzalez gegen Google zugunsten des Klägers entscheiden, bei dem es um die Algorithmen von YouTube geht, die den Nutzern Pro-ISIS-Inhalte empfehlen.
Automatisierung in Maßen
Teil eines fast 27 Jahre alten Gesetzes zu sein, bereits von US-Präsident Joe Biden für eine Reform anvisiert (öffnet in neuem Tab)Abschnitt 230 ist nicht gerüstet, um Gesetze zu modernen Entwicklungen wie künstlich intelligenten Algorithmen zu erlassen, und hier beginnen die Probleme.
Der springende Punkt in Googles Argumentation ist, dass das Internet seit 1996 so stark gewachsen ist, dass die Integration künstlicher Intelligenz in Content-Moderation-Lösungen zu einer Notwendigkeit geworden ist. „Praktisch keine moderne Website würde funktionieren, wenn Nutzer Inhalte selbst sortieren müssten“, heißt es in der Einreichung.
„Eine Fülle von Inhalten“ bedeutet, dass Technologieunternehmen Algorithmen verwenden müssen, um sie den Benutzern auf übersichtliche Weise zu präsentieren, von Suchmaschinenergebnissen über Flugangebote bis hin zu Jobempfehlungen auf Job-Websites.
Google ging auch darauf ein, dass nach geltendem Recht Technologieunternehmen, die sich einfach weigern, ihre Plattformen zu moderieren, ein völlig legaler Weg sind, um sich der Haftung zu entziehen, aber dass dies das Internet in Gefahr bringt, eine „virtuelle Jauchegrube“ zu werden.
Der Technologieriese wies auch darauf hin, dass die Community-Richtlinien von YouTube Terrorismus, Inhalte für Erwachsene, Gewalt und „andere gefährliche oder anstößige Inhalte“ ausdrücklich ablehnen und dass er seine Algorithmen kontinuierlich optimiert, um verbotene Inhalte präventiv zu blockieren.
Es wurde auch behauptet, dass im zweiten Quartal 2022 „ungefähr“ 95 % der Videos, die gegen die „Richtlinie zu gewalttätigem Extremismus“ von YouTube verstoßen, automatisch erkannt wurden.
Dennoch behaupten die Petenten in diesem Fall, dass YouTube es versäumt habe, alle Isis-bezogenen Inhalte zu entfernen, und dadurch „dem Aufstieg von ISIS“ zur Bekanntheit verholfen habe.
In einem Versuch, sich weiter von jeglicher Haftung in diesem Punkt zu distanzieren, antwortete Google, dass die Algorithmen von YouTube Nutzern Inhalte empfehlen, die auf Ähnlichkeiten zwischen einem Inhalt und den Inhalten basieren, an denen sich ein Nutzer bereits interessiert.
Dies ist ein komplizierter Fall, und obwohl man sich leicht der Idee anschließen kann, dass das Internet für eine manuelle Moderation zu groß geworden ist, ist es ebenso überzeugend vorzuschlagen, dass Unternehmen zur Rechenschaft gezogen werden sollten, wenn ihre automatisierten Lösungen unzureichend sind.
Denn wenn selbst Technologiegiganten nicht garantieren können, was auf ihrer Website steht, können Benutzer von Filtern und Kindersicherung können nicht sicher sein, dass sie wirksame Maßnahmen ergreifen, um anstößige Inhalte zu blockieren.