Hitting the Books: AI könnte dazu beitragen, das geschlechtsspezifische Lohngefälle in Amerika zu verringern


Women waren im Laufe der Geschichte mit geschlechtsspezifischer Diskriminierung in der Belegschaft konfrontiert, wurden in allen bis auf eine Handvoll untergeordneter Positionen eingestellt, regelmäßig bei Beförderungen und Gehaltserhöhungen ignoriert – und selten jemals mit den gleichen Sätzen wie ihre männlichen Kollegen entlohnt. Diese lange und geschichtsträchtige sozioökonomische Tradition, mehr als die Hälfte der Bevölkerung finanziell zu betrügen, setzt sich weitgehend unvermindert bis ins 21. Jahrhundert fort, wo Frauen immer noch verdienen 84 Cent auf den Dollar das machen Männer. In ihrem neuen Buch Die Gleichstellungsmaschine: Nutzung digitaler Technologie für eine hellere, integrativere ZukunftRechtsprofessor und Gründungsmitglied des Center for Intellectual Property Law and Markets an der University of San Diego, Dr. Orly Lobel, untersucht, wie digitale Technologien, die oft wegen ihrer Rolle bei der Verschärfung gesellschaftlicher Missstände verleumdet werden, genutzt werden können, um den Schaden zu beheben sie haben verursacht.

Die Abdeckung der Gleichstellungsmaschine

Öffentliche Angelegenheiten

Aus diesem Artikel wurde ein Auszug gemacht Die Gleichstellungsmaschine: Nutzung digitaler Technologie für eine hellere, integrativere Zukunft von Orly Lobel. Copyright © 2022. Erhältlich bei PublicAffairs, einem Imprint von Perseus Books, LLC, einer Tochtergesellschaft von Hachette Book Group, Inc.


Jahrelang war die Doppelmoral eklatant: Arbeitgeber verlangten Gehaltsgeheimnis, während sie potenzielle Mitarbeiter nach ihrem Gehaltsverlauf befragten. Jetzt können wir beide Enden dieser Asymmetrie angehen. So wie die Digitalisierung dazu beiträgt, den Informationsfluss umzukehren, um mehr Transparenz auf dem Markt über den Wert der Mitarbeiter zu schaffen, weisen neue Gesetze die Arbeitgeber auch an, sich nicht so sehr auf vergangene Lohnniveaus zu verlassen, die durch systemische Ungleichheit beeinträchtigt werden können. Im Jahr 2016 verabschiedete Massachusetts als erster Staat ein Gesetz, das es Arbeitgebern verbietet, Bewerber nach ihrem Gehaltsverlauf zu fragen. Seitdem sind mehr als ein Dutzend Staaten diesem Beispiel gefolgt.

Arbeitgeber daran zu hindern, potenzielle Stellenbewerber nach ihrem Gehaltsverlauf zu fragen, hat zwei Ziele. Die erste besteht darin, den Teufelskreis des Lohngefälles zu durchbrechen, der entsteht, wenn Frauen in einem früheren Job weniger bezahlt werden und dieses Gefälle dann vom nächsten Arbeitgeber wiederholt wird. Zweitens geht es darum, geschlechtsspezifische Unterschiede im Verhandlungsprozess anzugehen. Gehaltszahlen werden von geschlechtsspezifischen Unterschieden geplagt, und sie können bestehende Marktunterschiede aufrechterhalten und weiter verschärfen. Wenn eine Frau offenlegt, dass sie derzeit weniger verdient als ein Mann, könnte sie ihrer Gehaltsentwicklung schaden – sowohl in der angestrebten Position als auch für den Rest ihrer Karriere. Jedes Mal, wenn sie einem potenziellen Arbeitgeber ihr aktuelles Gehalt offenlegt, wird diese Lücke wahrscheinlich größer, da Rekrutierungsbemühungen und Beförderungen oft als prozentuale Erhöhung im Verhältnis zum aktuellen Grundgehalt angeboten werden. Anstatt sich auf voreingenommene Zahlen zu verlassen, veranlassen Verbote der Abfrage von Gehaltshistorien Arbeitgeber dazu, andere Wege zu gehen, um den Wert eines potenziellen Mitarbeiters zu bestimmen, einschließlich einer Umstellung auf automatisierte Berechnungen. Arbeitgeber, die Markt- und interne Daten verwenden, können bei der Festlegung der Vergütung leistungsbezogene Merkmale wie Erfahrung, Schulung, Bildung, Fähigkeiten und bisherige Leistungen berücksichtigen.

Und doch, wie wir gesehen haben, kann sich menschliche Voreingenommenheit in unsere Algorithmen einschleichen, und ein Algorithmus, der mit Daten gefüttert wird, die durch Gehaltsvoreingenommenheit belastet sind, wird diese Voreingenommenheit wahrscheinlich selbst aufrechterhalten. Feedbackschleifen sind digitale Teufelskreisläufe, die zu selbsterfüllenden Ergebnissen führen können. Noch einmal: Bias in, Bias out. Das Risiko besteht darin, dass ein Algorithmus lernt, dass bestimmte Arten oder Kategorien von Mitarbeitern im Durchschnitt unterbezahlt sind, und dies dann in Gehaltsangebote einrechnet. Dies ist das Unrecht, das die jüngste Politik beseitigen soll – und das wir KI programmieren können, um es zu vermeiden. Das Entfernen der verankerten Zahl ermutigt die Arbeitgeber, die Bezahlung proaktiv auf der Grundlage der Bedürfnisse des Unternehmens und der Eignung des Kandidaten zu bewerten, anstatt auf einer verdorbenen Zahl. Gleichzeitig kann es Frauen ermutigen, mehr zu verlangen, wenn sie Gehaltsinformationen für einen Job haben, aber keine Gehaltshistorie auf dem Tisch haben.

Darüber hinaus kann KI auch in Zukunft – vielleicht nicht einmal in ferner Zukunft – helfen, indem sie einen Teil der Verhandlungen ersetzt, die in ungleichen Umgebungen stattfinden. Empirische Studien zu Verhandlungsunterschieden zwischen Männern und Frauen haben wiederholt gezeigt, dass Frauen im Durchschnitt weniger verhandeln und Arbeitgeber dann negativ reagieren. Frauen verlangen nicht annähernd so häufig nach höheren Gehältern, besseren Konditionen, Beförderungen oder Chancen wie Männer. In meiner Forschung habe ich das Verhandlungsdefizit genannt. In einer Studie an der Carnegie Mellon University nahmen 93 Prozent der weiblichen MBA-Studenten ein anfängliches Gehaltsangebot an, während dies nur 43 Prozent der Männer taten. In einer anderen Studie verlangten weibliche Teilnehmer, die Gehaltsverhandlungen simulierten, durchschnittlich 7.000 US-Dollar weniger als männliche Teilnehmer. Die Ökonomen Andreas Leibbrandt und John List haben außerdem festgestellt, dass Frauen zwar viel seltener mit Arbeitgebern über das Gehalt verhandeln, dieser Unterschied jedoch verschwindet, wenn allen Arbeitssuchenden ausdrücklich gesagt wird, dass das Gehalt verhandelbar ist, wodurch das Lohngefälle verringert wird. Meine eigene experimentelle Forschung mit dem Verhaltenspsychologen und Juraprofessor Yuval Feldman, meinem langjährigen Mitarbeiter, hat herausgefunden, dass Frauen in manchen Arbeitsumgebungen weniger als „Homo Oeconomicus“ – das heißt als rationale Wirtschaftsakteure – und mehr als altruistische soziale Akteure agieren Frauen verlangen für sich selbst nicht so viel wie Männer und legen eher Wert auf Sachleistungen wie eine gute Unternehmenskultur.

Können uns diese Forschungserkenntnisse Hinweise für die Entwicklung neuer Softwaretools geben, die Frauen zum Verhandeln anspornen? Digitale Plattformen können Mitarbeitern helfen, indem sie Ratschläge und Informationen zu Fragen nach einer Gehaltserhöhung oder zur Vorbereitung auf ein Vorstellungsgespräch geben. Informationen zur Bezahlung – und insbesondere eine ausdrückliche Erwartung, dass die Bezahlung ausgehandelt werden kann und sollte – können Bewerber dazu befähigen, höhere Gehälter auszuhandeln, bevor sie Stellenangebote annehmen. Die digitale Plattform PayScale führt jährliche Umfragen durch, bei denen Tausende von Arbeitssuchenden gefragt werden, ob sie ihr Gehalt bei früheren Jobs im Bewerbungsprozess offengelegt haben. Die Umfrage von PayScale aus dem Jahr 2018 ergab, dass Frauen, die nach ihrem Gehaltsverlauf gefragt wurden und die Offenlegung verweigerten, 1,8 Prozent seltener Stellen angeboten wurden als Frauen, die gefragt und offengelegt wurden. Im Gegensatz dazu erhielten Männer, die sich weigerten, ihre Gehaltsentwicklung preiszugeben, 1,2 Prozent häufiger Angebote als Männer, die sie offenlegten.

Selbst wenn Frauen verhandeln, werden sie anders behandelt. In meiner Forschung nenne ich dieses Phänomen die Verhandlungsstrafe. Frauen wird gesagt, sie sollten sich „hineinlehnen“ und Forderungen stellen, aber die Realität ist, dass Frauen seit Jahrhunderten allgemein als schwächere Verhandlungspartner angesehen werden als ihre männlichen Kollegen. In einer Reihe von Experimenten bewerteten die Teilnehmer schriftliche Berichte von Kandidaten, die Verhandlungen über höhere Gehälter aufgenommen oder nicht aufgenommen hatten. Die Ergebnisse in jedem Experiment zeigten, dass die Teilnehmer weibliche Kandidaten mehr als männliche Kandidaten für die Aufnahme von Verhandlungen bestraften und Frauen, die mehr verlangten, als nicht „nett“ oder zu „fordernd“ einstuften. Während Qualitäten wie Durchsetzungsvermögen, Stärke und Wettbewerbsfähigkeit männlichen Verhandlungsführern kulturell zugute kommen, gelten Frauen mit solchen Eigenschaften oft als zu aggressiv. Eine andere Studie untersuchte die Daten einer Gruppe schwedischer Arbeitssuchender und stellte fest, dass Frauen nicht nur niedrigere Gehälter erhielten als gleichqualifizierte männliche Kollegen, sondern auch, dass sie oft dafür bestraft wurden, wie sie zu verhandeln. Nick Yee und Jeremy Bailenson haben gezeigt, dass attraktive Avatare zu einem intimeren Verhalten mit einem Konföderierten in Bezug auf Selbstoffenbarung und zwischenmenschliche Distanz führen. In einer zweiten Studie beobachteten sie außerdem, dass große Avatare bei einer Verhandlungsaufgabe zu einem selbstbewussteren Verhalten führen als kleine Avatare. Sie nennen es den Proteus-Effekt (der griechische Gott Proteus war dafür bekannt, dass er die Fähigkeit hatte, viele Selbstdarstellungen anzunehmen). Der Proteus-Effekt deutet darauf hin, dass die visuellen Merkmale und Merkmale eines Avatars mit korrelierenden Verhaltensstereotypen und -erwartungen verbunden sind, einschließlich solcher, die sich auf die Art und Weise auswirken, wie wir verhandeln.

Der elfte jährliche Wettbewerb für künstliche Intelligenz, die zum Verhandeln trainiert wurde – die Hagglebot-Olympiade, wie sie in den populären Medien genannt wird – fand im Januar 2021 statt. Universitäten aus der Türkei und Japan gewannen dieses Mal. Bei einigen Experimenten, bei denen es um Verhandlungen mit Bots ging, bemerkten die meisten Menschen nicht einmal, dass sie mit einem Bot und nicht mit einer anderen Person sprachen – die Bots hatten gelernt, fließende Gespräche zu führen, die Menschen vollständig nachahmten. Mithilfe der Spieltheorie verbessern Forscher zunehmend die Art und Weise, wie Bots im Namen von Menschen verhandeln können, und eliminieren einige der Aspekte, in denen wir Menschen fehlbar sind, wie z. B. der Versuch, viele verschiedene Aspekte des Geschäfts zu berücksichtigen und abzuwägen. Die KI kann nun recht schnell die Präferenzen der anderen Seite vorhersagen. Beispielsweise lernt eine KI, die in den ersten fünf Minuten der Verhandlung per Mikrofon zuhört, einen Großteil des endgültigen Deals nur anhand der Stimmen der Verhandlungsführer vorherzusagen. Wenn man diesen Sprachmustern durch maschinelles Lernen folgt, stellt sich heraus, dass Verhandlungsführer, wenn sie in Lautstärke und Tonhöhe stark variieren, ein schwacher Spieler am Verhandlungstisch sind. Wenn sich die Verhandlungsseiten gegenseitig spiegeln, bedeutet dies, dass sie einer Einigung näher kommen. Der Einsatz von KI hat auch dazu beigetragen, die Art und Weise aufzudecken, in der Frauen am Verhandlungstisch bestraft werden. Eine neue Studie der University of Southern California verwendete einen Chatbot, der die Geschlechtsidentität der Teilnehmer nicht kannte, um Verhandlungsfähigkeiten zu bewerten. Die Studie zeigte, dass die meisten von uns – sowohl Männer als auch Frauen – bei Gehaltsverhandlungen ziemlich schlecht abschneiden. Über 40 Prozent der Teilnehmer verhandelten überhaupt nicht, und die meisten Leute ließen Geld auf dem Tisch liegen, das sie hätten bekommen können. Frauen bewerteten Aktienoptionen als Teil ihres Vergütungspakets weniger als Männer, was sich auf die Wahrscheinlichkeit auswirkt, dass Frauen im Laufe der Zeit Vermögen anhäufen. Diese Fortschritte können auch bei Verhandlungsunterschieden zwischen verschiedenen Identitäten helfen. Eine Gruppe israelischer und amerikanischer Forscher untersuchte, wie ein intelligenter Computer mit Menschen unterschiedlicher kultureller Herkunft verhandeln kann. Ohne der Maschine etwas über die Eigenschaften von Menschen aus drei Ländern – Israel, Libanon und den Vereinigten Staaten – zu sagen, ließen sie die KI durch Verhandlungsspiele etwas über die Muster kultureller Verhandlungsunterschiede lernen. Sie fanden heraus, dass der Computer die Menschen in allen Ländern übertreffen konnte. Diese Entwicklungen sind vielversprechend. Wir können uns vorstellen, dass Bots etwas über Verhandlungsunterschiede lernen und diesen letztendlich entgegenwirken, um einen gerechteren Austausch zu schaffen, gleiche Wettbewerbsbedingungen zu schaffen und faire Ergebnisse zu erzielen. Sie können so gestaltet werden, dass sie die spezifischen Verteilungsziele angehen, die wir haben.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply