Emotionale KI ist kein Ersatz für Empathie


2023 emotional KI – eine Technologie, die menschliche Emotionen wahrnehmen und mit ihnen interagieren kann – wird zu einer der dominierenden Anwendungen des maschinellen Lernens. Beispielsweise entwickelt Hume AI, das von Alan Cowen, einem ehemaligen Google-Forscher, gegründet wurde, Tools zur Messung von Emotionen anhand von verbalen, Gesichts- und Stimmausdrücken. Das schwedische Unternehmen Smart Eyes hat kürzlich Affectiva übernommen, das Spin-off des MIT Media Lab, das das neuronale SoundNet-Netzwerk entwickelt hat, einen Algorithmus, der Emotionen wie Wut aus Audio-Samples in weniger als 1,2 Sekunden klassifiziert. Sogar die Videoplattform Zoom führt Zoom IQ ein, eine Funktion, die den Benutzern bald eine Echtzeitanalyse von Emotionen und Engagement während eines virtuellen Meetings ermöglichen wird.

Im Jahr 2023 werden Technologieunternehmen fortschrittliche Chatbots veröffentlichen, die menschliche Emotionen genau nachahmen können, um empathischere Verbindungen zu Benutzern im Bankwesen, im Bildungswesen und im Gesundheitswesen herzustellen. Microsofts Chatbot Xiaoice ist in China bereits erfolgreich, wobei durchschnittliche Benutzer Berichten zufolge mehr als 60 Mal in einem Monat mit „ihr“ gesprochen haben. Es hat auch den Turing-Test bestanden, bei dem die Benutzer es 10 Minuten lang nicht als Bot erkannt haben. Analysen von Juniper Research Consultancy zeigen, dass die Chatbot-Interaktionen im Gesundheitswesen gegenüber 2018 um fast 167 Prozent steigen und 2023 2,8 Milliarden jährliche Interaktionen erreichen werden. Dadurch wird medizinisches Personal Zeit frei und potenziell rund 3,7 Milliarden US-Dollar für Gesundheitssysteme auf der ganzen Welt eingespart .

2023 wird emotionale KI auch in Schulen Einzug halten. In Hongkong verwenden einige weiterführende Schulen bereits ein von Find Solutions AI entwickeltes Programm für künstliche Intelligenz, das Mikrobewegungen der Muskeln auf den Gesichtern der Schüler misst und eine Reihe negativer und positiver Emotionen identifiziert. Lehrer verwenden dieses System, um emotionale Veränderungen bei Schülern sowie ihre Motivation und Konzentration zu verfolgen, sodass sie frühzeitig eingreifen können, wenn ein Schüler das Interesse verliert.

Das Problem ist, dass die Mehrheit der emotionalen KI auf fehlerhafter Wissenschaft basiert. Emotionale KI-Algorithmen reduzieren, selbst wenn sie auf große und vielfältige Datensätze trainiert werden, Gesichts- und Tonausdrücke auf eine Emotion, ohne den sozialen und kulturellen Kontext der Person und der Situation zu berücksichtigen. Während beispielsweise Algorithmen erkennen und melden können, dass eine Person weint, ist es nicht immer möglich, den Grund und die Bedeutung hinter den Tränen genau abzuleiten. Ebenso deutet ein finsteres Gesicht nicht unbedingt auf eine wütende Person hin, aber das ist die Schlussfolgerung, zu der ein Algorithmus wahrscheinlich kommen wird. Wieso den? Wir alle passen unsere emotionalen Äußerungen unseren sozialen und kulturellen Normen an, sodass unsere Äußerungen nicht immer unsere inneren Zustände widerspiegeln. Oft machen Menschen „Emotionsarbeit“, um ihre wahren Emotionen zu verschleiern, und wie sie ihre Emotionen ausdrücken, ist wahrscheinlich eher eine erlernte Reaktion als ein spontaner Ausdruck. Zum Beispiel ändern Frauen ihre Emotionen oft mehr als Männer, besonders diejenigen, denen negative Werte wie Wut zugeschrieben werden, weil es von ihnen erwartet wird.

Daher werden KI-Technologien, die Annahmen über emotionale Zustände treffen, wahrscheinlich geschlechtsspezifische und rassische Ungleichheiten in unserer Gesellschaft verschärfen. Beispielsweise zeigte ein UNESCO-Bericht aus dem Jahr 2019 die schädlichen Auswirkungen der Geschlechterregelung von KI-Technologien mit „weiblichen“ Sprachassistenzsystemen, die nach Stereotypen von emotionaler Passivität und Knechtschaft entwickelt wurden.

Gesichtserkennungs-KI kann auch Rassenungleichheiten aufrechterhalten. Analysen von 400 NBA-Spielen mit zwei beliebten Softwareprogrammen zur Emotionserkennung, Face und Microsofts Face API, zeigten, dass schwarzen Spielern im Durchschnitt mehr negative Emotionen zugeordnet wurden, selbst wenn sie lächelten. Diese Ergebnisse bestätigen andere Untersuchungen, die zeigen, dass schwarze Männer am Arbeitsplatz positivere Emotionen projizieren müssen, weil sie als aggressiv und bedrohlich stereotypisiert werden.

Emotionale KI-Technologien werden im Jahr 2023 allgegenwärtiger werden, aber wenn sie unangefochten und ungeprüft bleiben, werden sie systemische rassistische und geschlechtsspezifische Vorurteile verstärken, die Ungleichheiten in der Welt replizieren und verstärken und diejenigen, die bereits an den Rand gedrängt sind, weiter benachteiligen.

source-114

Leave a Reply