Microsoft nutzt KI, um die Community-Sicherheit in Sprachchats zu verbessern, aber es liegt noch ein langer Weg vor uns

Microsoft nutzt KI, um bei der Identifizierung schädlicher Inhalte zu helfen und sicherzustellen, dass die Gaming-Community beim Online-Spielen geschützt ist.

In einem Blogbeitrag zum Xbox-Transparenzberichtbekräftigte das Unternehmen seine „Fortschritte bei der Förderung der Spielersicherheit“ und sein „Engagement für Transparenz“ sowie seinen „fortschrittlichen Ansatz zur Nutzung von KI“.

Es gibt zwei spezifische Arten, wie KI eingesetzt wird: automatische Beschriftung und Bildmustervergleich.

Nachrichtensendung: Ist die Schließung der Studios von Hi-Fi Rush und Redfall ein Zeichen dafür, dass das Xbox Game Pass-Veröffentlichungsmodell scheitert?Auf YouTube ansehen

Ersteres nutzt KI, um schädliche Wörter oder Phrasen aus Spielerberichten zu identifizieren, sodass Community-Moderatoren Falschmeldungen schnell aussortieren und sich auf die kritischsten Vorfälle konzentrieren können.

Letzteres nutzt ebenfalls Bildabgleichstechniken, um schädliche und toxische Bilder schnell zu identifizieren und zu entfernen.

Der Einsatz von KI folgt auf die Einführung einer neuen Sprachberichterstattungsfunktion im letzten Jahr, die es Xbox-Spielern ermöglicht, Videoclips des In-Game-Voice-Chats aufzunehmen und sie dem Xbox-Sicherheitsteam zur Überprüfung vorzulegen.

Xbox gibt an, seit der Einführung der Funktion 138.000 Sprachaufzeichnungen erfasst zu haben. Als diese Meldungen zu einem Durchsetzungsstreik führten, zeigten 98 Prozent der Spieler ein verbessertes Verhalten und erhielten keine weiteren Durchsetzungsmaßnahmen.

Letztes Jahr führte Xbox ein System zur Durchsetzung von Streiks ein, bei dem schlechtes Verhalten mit einem Streik entsprechender Schwere abgeglichen wird. Seit der Einführung erhielten 88 Prozent der Spieler, die eine Verwarnung erhielten, keine weitere Durchsetzung.

Es ist also ein positiver Schritt, da KI den menschlichen Aufwand für die Überprüfung giftiger Inhalte reduziert.

Dennoch sind Toxizität und Frauenfeindlichkeit im Gaming-Voice-Chat nach wie vor weit verbreitet. Ein Beitrag der Twitch-Streamerin Taylor Morgan ging diese Woche viral, weil sie während eines Spiels von Riot’s Valorant schädlichen Beschimpfungen ausgesetzt war (Vorsicht vor der Sprache im Clip unten).

„Die Sperren reichen nicht aus. Nichts wird diese Männer jemals davon abhalten, sich so zu verhalten, bis Hardware-Verbote in Kraft treten. Sie sollten nie wieder in der Lage sein, das Spiel zu spielen“, schrieb sie auf X, ehemals Twitter.

In einem Folgebeitrag gab sie bekannt, dass sie eine Strafe erhalten hatte, weil sie das Spiel vorzeitig verlassen hatte.

Beispiele wie dieses verdeutlichen, dass noch ein langer Weg vor uns liegt, um die Sicherheit von Online-Spielen zu verbessern. Und obwohl der Einsatz von KI durch Microsoft scheinbar positiv zu sein scheint, sollte man sich daran erinnern, dass das Unternehmen letztes Jahr sein gesamtes KI-Ethik- und Gesellschaftsteam entlassen hat, als Folge des Verlusts von 10.000 Arbeitsplätzen im gesamten Unternehmen (wie damals hervorgehoben von Der Rand). Das Office of Responsible AI bleibt jedoch bestehen, das seine veröffentlicht hat Leitfaden zum verantwortungsvollen KI-Standard.

Tatsächlich treibt Microsoft die Vorteile der KI durchaus voran. Im November letzten Jahres kündigte das Unternehmen eine „mehrjährige gemeinsame Entwicklungspartnerschaft“ mit Inworld AI an, um den Xbox-Studios KI-Tools wie einen Design-Copiloten und eine Charakter-Laufzeit-Engine zur Verfügung zu stellen.

Solche generativen KI-Tools stießen zuvor auf „Ehrfurcht und Wut“, wie Eurogamer von der GDC-Veranstaltung im letzten Jahr berichtete.

Kürzlich hieß es in einem Bericht von Unity, dass 62 Prozent der Studios bereits KI nutzen, wobei Animation am häufigsten eingesetzt wird.


source site-57

Leave a Reply