Überprüfen Sie Ihre „Bossware“-Tools für künstliche Intelligenz auf Voreingenommenheit, sagt der Leiter der US-Behörde


Der Leiter der US-Behörde, die für die Durchsetzung von Bürgerrechten am Arbeitsplatz zuständig ist, sagt, dass auf künstlicher Intelligenz basierende „Bossware“-Tools, die den Aufenthaltsort, Tastenanschläge und die Produktivität von Arbeitnehmern genau verfolgen, ebenfalls gegen Diskriminierungsgesetze verstoßen können.

Charlotte Burrows, Vorsitzende der Equal Employment Opportunity Commission, sagte gegenüber The Associated Press, dass die Agentur versuche, Arbeitgeber und Technologieanbieter über den Einsatz dieser Überwachungstools sowie KI-Tools aufzuklären, die die Arbeit bei der Bewertung von Beschäftigungsaussichten rationalisieren.

Und wenn sie nicht vorsichtig sind, beispielsweise mit drakonischen Algorithmen zur Zeitplanüberwachung, die Pausen für schwangere Frauen oder Muslime, die sich Zeit zum Beten nehmen, bestrafenoder zulassen, dass fehlerhafte Software Absolventen weiblicher oder traditionell schwarzer Hochschulen aussortiert – sie können der KI nicht die Schuld geben, wenn die EEOC anruft.

„Ich scheue mich nicht, unsere Durchsetzungsbefugnisse zu nutzen, wenn es nötig ist“, sagte Burrows. „Wir möchten mit Arbeitgebern zusammenarbeiten, aber es gibt sicherlich keine Ausnahme von den Bürgerrechtsgesetzen, weil Diskriminierung auf hochtechnologische Weise erfolgt.“

Die Bundesbehörde hat am Donnerstag ihre neuesten Leitlinien zum Einsatz automatisierter Systeme bei Beschäftigungsentscheidungen veröffentlicht, beispielsweise bei der Einstellung oder Beförderung. Es erklärt, wie eine wichtige Bestimmung des Civil Rights Act von 1964, bekannt als Titel VII, zu interpretieren ist, die Diskriminierung am Arbeitsplatz aufgrund von Rasse, Hautfarbe, nationaler Herkunft, Religion oder Geschlecht verbietet, wozu auch Voreingenommenheit gegenüber schwulen, lesbischen und Transgender-Arbeitnehmern gehört.

Burrows sagte, ein wichtiges Beispiel seien weit verbreitete Lebenslauf-Screener und die Frage, ob sie ein voreingenommenes Ergebnis liefern können, wenn sie auf voreingenommenen Daten basieren.

„Was passieren wird, ist, dass es einen Algorithmus gibt, der nach Mustern sucht, die Muster widerspiegeln, mit denen er bereits vertraut ist“, sagte sie. „Die Schulung erfolgt anhand der Daten, die von den vorhandenen Mitarbeitern stammen. Und wenn Ihr Mitarbeiterstamm derzeit nicht heterogen ist, werden Sie am Ende wahrscheinlich unabsichtlich Leute rausschmeißen, die nicht wie Ihre aktuellen Mitarbeiter aussehen.“

Amazon hat beispielsweise sein eigenes Tool zum Scannen von Lebensläufen zur Rekrutierung von Top-Talenten aufgegeben, nachdem festgestellt wurde, dass es Männer für technische Positionen bevorzugt – unter anderem, weil es Stellenbewerber mit der männerdominierten Tech-Belegschaft des Unternehmens verglich.

Andere Agentureneinschließlich des Justizministeriums, haben ähnliche Warnungen verschickt für das vergangene Jahr, mit früheren Leitlinien dazu, wie einige KI-Tools Menschen mit Behinderungen diskriminieren und gegen den Americans with Disabilities Act verstoßen könnten.

In einigen Fällen hat die EEOC Maßnahmen ergriffen. Im März einigte sich der Betreiber der Tech-Jobsuche-Website Dice.com mit der Agentur darauf, eine Untersuchung wegen Vorwürfen einzustellen, sie habe zugelassen, dass Stellenausschreibungen Arbeitnehmer US-amerikanischer Herkunft zugunsten von Einwanderern, die ein Arbeitsvisum beantragen, ausschließen. Um den Fall beizulegen, erklärte sich die Muttergesellschaft DHI Group bereit, ihre Programmierung umzuschreiben, um diskriminierende Formulierungen wie „Nur H-1Bs“, eine Anspielung auf eine Art Arbeitsvisum, zu beseitigen.

Ein Großteil der Arbeit des EEOC besteht darin, die Beschwerden von Mitarbeitern zu untersuchen, die glauben, diskriminiert worden zu sein. Und obwohl es für Bewerber schwierig ist Um herauszufinden, ob ein voreingenommenes Einstellungstool dazu geführt hat, dass ihnen ein Job verweigert wurde, sagte Burrows, dass es bei den Arbeitnehmern „im Allgemeinen mehr Bewusstsein“ für die Tools gibt, die zunehmend zur Überwachung ihrer Produktivität eingesetzt werden.

Diese Tools reichten von Hochfrequenzgeräten zur Ortung von Krankenschwestern über die Überwachung des minütlich streng kontrollierten Zeitplans von Lagerarbeitern und Lieferfahrern bis hin zur Verfolgung von Tastenanschlägen oder Computermausklicks, da viele Büroangestellte während der Pandemie begannen, von zu Hause aus zu arbeiten. Je nachdem, wie sie verwendet werden, verstoßen einige möglicherweise gegen Bürgerrechtsgesetze.

Burrows stellte fest, dass das National Labour Relations Board ebenfalls solche KI-Tools prüft. Die NLRB hat letztes Jahr ein Memo verschickt, in dem sie warnt, dass übermäßig aufdringliche Überwachungs- und Managementinstrumente das Recht der Arbeitnehmer beeinträchtigen können, untereinander über Gewerkschaftsaktivitäten oder unsichere Bedingungen zu kommunizieren.

„Ich denke, dass der beste Ansatz dort – ich sage nicht, es nicht zu nutzen, es ist nicht per se illegal – darin besteht, wirklich darüber nachzudenken, was Arbeitgeber messen wollen, und das vielleicht direkt zu messen“, sagte Burrows . „Wenn Sie sehen möchten, ob die Arbeit erledigt wird, überprüfen Sie vielleicht, ob die Arbeit erledigt wird.“

source-123

Leave a Reply