Alex Nichiporchik, CEO des Hello Neighbor-Herausgebers tinyBuild, schlug vor kurzem die Möglichkeit vor, KI-Modelle zu nutzen, um „problematische Teammitglieder“ zu finden und Burnout-gefährdete Mitarbeiter zu identifizieren, und obwohl das Ziel angeblich darin bestand, Mitarbeitern zu helfen, mochte das niemand.
WhyNow Gaming berichtete über a Präsentation Nichiporchik hielt am 12. Juli auf der Konferenz Develop: Brighton einen Vortrag mit dem Titel „KI in Gamedev: Ist mein Job sicher?“ Im zusammenfassenden Klappentext heißt es, dass die Präsentation „eingehend darauf eingehen würde, wie der Verlag KI in seine täglichen Praktiken einführte, um die Effizienz exponentiell zu steigern.“ Von einer zehnfachen Steigerung der Effizienz wichtiger Kunstproduktionen bis hin zum Einsatz von KI zum Sammeln von Daten und zur Überprüfung der Community-Stimmung sind wir dabei die industrielle Revolution des digitalen Zeitalters. Wer sich darauf einlässt, ist bereits im Vorteil.“
Zusätzlich zu der Frage, wie KI als Werkzeug für Spieleentwicklungsdisziplinen wie Kunst und Code eingesetzt werden kann, heißt es in der Sitzungsanmeldung, dass „es eine Neuzuweisung von Humanressourcen geben wird, die die Arbeitsweise von Teams verändern und optimieren wird.“ Es ist vor allem dieses Element, das ein solches Feuer entfacht hat, und die Diskussion drehte sich um die Idee, KI zu nutzen, um Mitarbeiter herauszusuchen, anstatt, ich weiß nicht, zu überprüfen, wie es ihnen geht.
Folien aus Nichiporchiks Präsentation schlagen eine „Ich-Ich-Analyse“ vor, die misst, wie oft Mitarbeiter sich selbst als Individuen und nicht als Teil des Teams bezeichnen (mit Pluralformen wie „wir“ usw.). Dies könnte beispielsweise dadurch geschehen, dass Konversationen in Slack oder anderen Messaging-Apps, etwa automatische Transkripte von Google- oder Zoom-Anrufen, über KI wie ChatGPT zugeführt werden, nachdem sie von allen identifizierenden Details befreit wurden. Berichten zufolge scherzte Nichiporchik in seinem Vortrag darüber, diese Methode urheberrechtlich zu schützen, „denn meines Wissens hat das niemand erfunden.“
Er sprach auch über die Suche nach Mitarbeitern, die „im Vergleich zu Kollegen unverhältnismäßig viel Zeit in Besprechungen mit Reden verbringen“ – Menschen, die er „Zeitvampire“ nannte, was übrigens derselbe Begriff ist, den ich für Videospiele mit vielen Inhalten verwende. Schließlich wurde in dem Vortrag ein 360-Grad-Feedback der Personalabteilung eingebunden, bei dem die Mitarbeiter gebeten wurden, Kollegen aufzulisten, mit denen sie positive Interaktionen hatten, und dann nach Personen gesucht wurde, die nicht in vielen oder keiner dieser Listen auftauchen.
Durch die Kombination dieser Daten, so die Zusammenfassung der Präsentation, „können Sie möglicherweise einen Burnout verhindern – sowohl bei der Person als auch bei ihrem Team.“ Nichiporchik fügte außerdem hinzu, dass Sie „Ihren Teammitgliedern niemals das Gefühl geben dürfen, ausspioniert zu werden“, und die Kluft zwischen dieser Warnung und den vorgeschlagenen Methoden kam bei den Spieleentwicklern nicht gut an.
Wenn Sie denken, dass dies wie ein dystopischer Albtraum direkt aus Black Mirror klingt, werden Sie vielleicht verblüfft sein, dass in der Präsentation sogar gesagt wurde: „Willkommen bei Black Mirror.“ Auch die Behauptung, dass „toxische Menschen in der Regel diejenigen sind, die kurz davor stehen, auszubrennen“, und eine Folie in der Präsentation, in der Burnout mit Toxizität gleichgesetzt wird, stieß auf einige Kritik. Um es milde auszudrücken: Den Leuten gefällt es nicht. Um es weniger milde auszudrücken:
„Nur ein Gedanke, vielleicht gibt es weniger dystopische Möglichkeiten herauszufinden, ob es Ihren Mitarbeitern wirklich schlecht geht.“ genannt Die Erzähldesignerin von Thirsty Suitors, Meghna Jayanth.
„Jemand, der ausgebrannt ist, ist ‚normalerweise‘ nicht giftig.“ Menschen können sicherlich ausgebrannt und toxisch sein, aber zu unterstellen, dass Burnout meistens mit einem Charakterversagen gleichzusetzen ist, ist bizarr.“ hinzugefügt Dora Breckinridge, Direktorin bei Armor Games.
„Wenn Sie wiederholt bestätigen müssen, dass Sie wissen, wie dystopisch und erschreckend Ihre Mitarbeiterüberwachung ist, könnten Sie das verdammte Problem sein, mein Mann.“ sagt WB Games-Autor Mitch Dyer.
Dan Ahern, QA-Leiter von Radical Forge, argumentierte „Man braucht keine KI, um ‚problematische Mitarbeiter‘ zu finden – man kann sie einfach finden, indem man sich anschaut, wer versucht, so schrecklichen Blödsinn auf Torment-Nexus-Niveau zu machen. Wirklich enttäuschend, dass Develop einem solchen Anti-Spiele-Entwickler das Gespräch ermöglicht.“ sogar dort gehostet werden.“
Heute Morgen, am 14. Juli, machte sich Nichiporchik auf den Weg Twitter um die Originalgeschichte, die seiner Meinung nach „aus einem Ort des Hasses“ stammt, hervorzuheben, weil sie „aus dem Kontext gerissen“ wurde und wichtige Folien „praktischerweise“ weggelassen wurden. WhyNow Gaming hat seine Geschichte außerdem mit einer Erklärung des CEO aktualisiert, in der es klarstellt:
„Der HR-Teil meiner Präsentation war hypothetisch, daher der Verweis auf Black Mirror. Ich hätte es deutlicher machen können, wenn man es außerhalb des Kontexts betrachtet. Wir überwachen keine Mitarbeiter und verwenden keine KI, um problematische Mitarbeiter zu identifizieren. In der Präsentation wurde untersucht, wie KI Werkzeuge können verwendet werden, und einige geraten in unheimliches Terrain.“
„Hier geht es nicht darum, problematische Mitarbeiter zu identifizieren, sondern darum, HR-Tools zur Verfügung zu stellen, um Burnout bei Menschen zu erkennen und zu verhindern“, bekräftigte Nichiporchik auf Twitter.
„Ich hätte das viel stärker betonen können: Wir nutzen keine KI-Tools für die Personalabteilung, dieser Teil der Präsentation war hypothetisch“, sagte er in einer Antwort.
Ein Twitter-Nutzer genannt Sie „verachten die Idee, dass meine Slack-Nachrichten gesammelt und in irgendein Programm eingespeist werden“, und zur Verwirrung einiger antwortete Nichiporchik ohne weitere Erklärung mit „100 % einverstanden“.
Auf die Frage, ob die Mitarbeiter von tinyBuild die Erlaubnis gegeben hätten, ihre Nachrichten auf diese Weise analysieren zu lassen, antwortete Nichiporchik, dass niemand diese Erlaubnis geben müsse, weil „sie nirgendwo gefüttert wurden“ – wieder, wie ich vermute, weil das alles „hypothetisch“ sei.
„Die Ethik solcher Prozesse ist definitiv fraglich, und diese Frage wurde bei der Frage-und-Antwort-Runde nach der Präsentation gestellt“, sagte er genannt in einem anderen Tweet. „Deshalb sage ich ‚sehr Black Mirror-Territorium‘.“ Dieser Teil war HYPOTHETISCH. Was Sie tun können, um einem Burnout vorzubeugen.“
Ob hypothetisch oder nicht, die bloße Idee hat viele Leute in die Irre geführt, vor allem, wenn sie auf einer Konferenz wie dieser und von einer Führungskraft an der Spitze eines großen Indie-Studios vorgestellt wurde. Ich habe mich direkt an tinyBuild gewandt, um einen aktualisierten Kommentar zu dem Vorschlag, seiner Haltung zu dieser Art der Überwachung und KI-gesteuerten Mitarbeitereingriffen und der Frage, ob die Implementierung eines solchen Systems selbst in Betracht gezogen wird, zu erhalten.
Eine Persona 5 VA wurde kürzlich von Twitter vertrieben nachdem sie nur wenige Tage später ein Video kritisiert hatte, in dem ihre Stimme mit KI geklont wurde KI-Stimmen in NSFW Skyrim-Mods löste eine gesonderte Diskussion über dieselbe Art von Klontechnologie aus.