Big Tech hat Vertrauen und Sicherheit aufgegeben. Jetzt verkaufen Startups es als Dienstleistung zurück


Das Gleiche gilt für die KI-Systeme, mit denen Unternehmen potenziell gefährliche oder missbräuchliche Inhalte kennzeichnen. Plattformen nutzen oft riesige Datenmengen, um interne Tools zu erstellen, die ihnen helfen, diesen Prozess zu rationalisieren, sagt Louis-Victor de Franssu, Mitbegründer der Vertrauens- und Sicherheitsplattform Tremau. Viele dieser Unternehmen sind jedoch beim Aufbau ihrer Systeme auf kommerziell erhältliche Modelle angewiesen – was zu neuen Problemen führen könnte.

„Es gibt Unternehmen, die sagen, sie verkaufen KI, aber in Wirklichkeit bündeln sie verschiedene Modelle“, sagt Franssu. Das bedeutet, dass ein Unternehmen möglicherweise eine Reihe verschiedener maschineller Lernmodelle – beispielsweise eines, das das Alter eines Benutzers erkennt, und ein anderes, das Nacktheit erkennt, um potenzielles Material über sexuellen Kindesmissbrauch zu kennzeichnen – in einem Dienst kombiniert, den es seinen Kunden anbietet.

Dies kann zwar Dienstleistungen billiger machen, bedeutet aber auch, dass alle Probleme in einem Modell, das ein Outsourcer verwendet, auftreten repliziert über seine Kunden hinweg, sagt Gabe Nicholas, wissenschaftlicher Mitarbeiter am Center for Democracy and Technology. „Aus Sicht der freien Meinungsäußerung bedeutet das, dass Sie Ihre Rede nicht woanders hinbringen können, wenn es auf einer Plattform einen Fehler gibt – wenn es einen Fehler gibt, wird sich dieser Fehler überall ausbreiten.“ Dieses Problem kann sich verschärfen, wenn mehrere Outsourcer dieselben Grundmodelle verwenden.

Durch die Auslagerung kritischer Funktionen an Dritte könnten Plattformen es auch für die Menschen schwieriger machen, zu verstehen, wo Moderationsentscheidungen getroffen werden, oder für die Zivilgesellschaft – die Denkfabriken und gemeinnützigen Organisationen, die große Plattformen genau beobachten –, zu wissen, wo sie für Fehler verantwortlich gemacht werden können.

„[Many watching] reden, als ob diese großen Plattformen diejenigen wären, die die Entscheidungen treffen. Darauf richten so viele Menschen in der Wissenschaft, der Zivilgesellschaft und der Regierung ihre Kritik“, sagt Nicholas. „Der Gedanke, dass wir dies möglicherweise an die falsche Stelle verweisen, ist ein beängstigender Gedanke.“

In der Vergangenheit wurden große Firmen wie Telus, Teleperformance und Accenture mit der Verwaltung eines wichtigen Teils der ausgelagerten Vertrauens- und Sicherheitsarbeit beauftragt: der Moderation von Inhalten. So sah es oft aus Call-Center, wobei eine große Zahl schlecht bezahlter Mitarbeiter die Beiträge manuell durchsucht, um zu entscheiden, ob sie gegen die Richtlinien einer Plattform gegen Dinge wie Hassrede, Spam und Nacktheit verstoßen. Neue Startups im Bereich Vertrauen und Sicherheit setzen stärker auf Automatisierung und künstliche Intelligenz und spezialisieren sich oft auf bestimmte Arten von Inhalten oder Themenbereichen – wie Terrorismus oder sexueller Kindesmissbrauch – oder konzentrieren sich auf ein bestimmtes Medium, wie Text oder Video. Andere entwickeln Tools, die es einem Client ermöglichen, verschiedene Vertrauens- und Sicherheitsprozesse über eine einzige Schnittstelle auszuführen.

source-114

Leave a Reply