KI stiehlt Ihnen vielleicht nicht den Job, aber sie könnte Sie davon abhalten, eingestellt zu werden


Wenn Sie befürchtet haben, dass Algorithmen zur Kandidatenauswahl zwischen Ihnen und Ihrem Traumjob stehen könnten, lesen Sie den Beitrag von Hilke Schellmann Der Algorithmus wird dich nicht beruhigen. Das neue Buch des investigativen Reporters und NYU-Journalistenprofessors entmystifiziert, wie Personalabteilungen Automatisierungssoftware verwenden, die nicht nur Voreingenommenheit verbreitet, sondern auch an dem scheitert, was sie angeblich tun: den besten Kandidaten für die Stelle zu finden.

Schellmann gab sich als potenzieller Jobsucher aus, um einige dieser Software zu testen, die von Lebenslauf-Screenern und videospielbasierten Tests bis hin zu Persönlichkeitstests reicht, die Gesichtsausdrücke, Stimmton und Social-Media-Verhalten analysieren. Ein Tool bewertete sie als sehr geeignet für den Job, obwohl sie auf Deutsch Unsinn mit ihr redete. Ein Algorithmus zur Persönlichkeitsbewertung gab ihr aufgrund ihrer Twitter-Nutzung eine gute Bewertung für „Stetigkeit“ und aufgrund ihres LinkedIn-Profils eine niedrige Bewertung.

Es reicht aus, um Sie dazu zu bringen, Ihr LinkedIn-Konto zu löschen und sich für Homesteading zu interessieren, aber Schellmann hat auch ermutigende Erkenntnisse. In einem Interview, das aus Gründen der Länge und Klarheit gekürzt wurde, schlug sie vor, wie die Gesellschaft voreingenommene HR-Technologie eindämmen könnte, und gab Arbeitssuchenden praktische Tipps, wie sie die Bots besiegen können.

Caitlin Harrington: Sie haben über den Einsatz von KI bei der Personalbeschaffung berichtet Das Wall Street Journal, MIT Technology ReviewUnd Der Wächter in den letzten Jahren. Wann dachten Sie, ich habe hier ein Buch?

Hilke Schellmann: Eine davon war, als ich 2018 eine der ersten HR-Tech-Konferenzen besuchte und dort auf den Markteintritt von KI-Tools stieß. Es gab etwa 10.000 Menschen, Hunderte von Verkäufern, viele Käufer und große Unternehmen. Mir wurde klar, dass es sich um einen gigantischen Markt handelte, der die Personalabteilung in Beschlag nahm.

Softwareunternehmen präsentieren ihre Produkte oft als eine Möglichkeit, menschliche Vorurteile bei der Einstellung zu beseitigen. Aber natürlich kann KI die Verzerrungen der von ihr aufgenommenen Trainingsdaten absorbieren und reproduzieren. Sie haben einen Lebenslauf-Screener entdeckt, der die Punktzahl eines Kandidaten angepasst hat, als er den Ausdruck „Afroamerikaner“ in seinem Lebenslauf erkannte.

Schellmann: Natürlich werden Unternehmen sagen, dass ihre Tools keine Voreingenommenheit aufweisen, aber wie wurden sie getestet? Hat sich jemand damit befasst, der nicht im Unternehmen arbeitet? Im Handbuch eines Unternehmens heißt es, dass die Einstellungs-KI auf Daten von 18- bis 25-jährigen College-Studenten trainiert wurde. Möglicherweise haben sie einfach etwas ganz Spezielles für 18- bis 25-Jährige gefunden, das auf andere Arbeitnehmer, bei denen das Werkzeug verwendet wurde, nicht anwendbar ist.

Der Schaden, den ein menschlicher Personalmanager anrichten kann, ist begrenzt, und natürlich sollten wir versuchen, das zu verhindern. Aber ein Algorithmus, mit dem Hunderttausende Arbeiter bewertet werden, kann, wenn er fehlerhaft ist, viel mehr Menschen schaden als jeder einzelne Mensch.

Offensichtlich möchten die Anbieter nicht, dass die Leute in die Black Boxes schauen. Aber ich denke, auch Arbeitgeber scheuen davor zurück, nachzuschauen, weil sie dann eine plausible Leugnungsmöglichkeit haben. Wenn sie Probleme feststellen, könnten sich 500.000 Menschen auf eine Stelle beworben haben und einen Anspruch geltend machen. Deshalb müssen wir mehr Transparenz und Tests vorschreiben.

source-114

Leave a Reply