Voreingenommenheit im Gesundheitswesen ist gefährlich. Aber so sind „Fairness“-Algorithmen


Was wir hier beschrieben haben, ist tatsächlich ein Best-Case-Szenario, in dem es möglich ist, Fairness durch einfache Änderungen zu erzwingen, die sich auf die Leistung für jede Gruppe auswirken. In der Praxis können sich Fairnessalgorithmen viel radikaler und unvorhersehbarer verhalten. Diese Befragung fanden heraus, dass im Durchschnitt die meisten Algorithmen in der Computer Vision die Fairness verbesserten, indem sie allen Gruppen schadeten – zum Beispiel durch die Verringerung von Erinnerung und Genauigkeit. Anders als in unserer Hypothese, wo wir den Schaden verringert haben, den eine Gruppe erlitten hat, ist es möglich, dass eine Nivellierung nach unten dazu führen kann, dass es allen direkt schlechter geht.

Nivellierung von Läufen entgegen den Zielen der algorithmischen Fairness und breiteren Gleichstellungszielen in der Gesellschaft: die Ergebnisse für historisch benachteiligte oder marginalisierte Gruppen zu verbessern. Die Leistungsminderung für leistungsstarke Gruppen kommt nicht selbstverständlich schlechteren Leistungsgruppen zugute. Darüber hinaus kann eine Nivellierung nach unten erfolgen historisch benachteiligten Gruppen direkt schaden. Die Entscheidung, einen Vorteil zu entfernen, anstatt ihn mit anderen zu teilen, zeigt einen Mangel an Sorge, Solidarität und Bereitschaft, die Gelegenheit zu nutzen, um das Problem tatsächlich zu lösen. Es stigmatisiert historisch benachteiligte Gruppen und verfestigt die Abgeschiedenheit und soziale Ungleichheit, die überhaupt erst zu einem Problem geführt haben.

Wenn wir KI-Systeme bauen, um Entscheidungen über das Leben von Menschen zu treffen, kodieren unsere Designentscheidungen implizite Werturteile darüber, was priorisiert werden sollte. Das Absteigen nach unten ist eine Folge der Entscheidung, Fairness ausschließlich anhand der Ungleichheit zwischen Gruppen zu messen und zu korrigieren, während Nutzen, Wohlfahrt, Priorität und andere Güter ignoriert werden, die für Fragen der Gleichheit in der realen Welt von zentraler Bedeutung sind. Es ist nicht das unvermeidliche Schicksal der algorithmischen Fairness; es ist vielmehr das Ergebnis des Wegs des geringsten mathematischen Widerstands und nicht aus übergeordneten gesellschaftlichen, rechtlichen oder ethischen Gründen.

Um voranzukommen, haben wir drei Möglichkeiten:

• Wir können weiterhin voreingenommene Systeme einsetzen, die angeblich nur einem privilegierten Segment der Bevölkerung nützen, während sie anderen ernsthaft schaden.
• Wir können Fairness weiterhin in formalistischen mathematischen Begriffen definieren und KI einsetzen, die für alle Gruppen weniger genau und für einige Gruppen aktiv schädlich ist.
• Wir können handeln und Fairness erreichen, indem wir „aufleveln“.

Wir glauben, dass das Aufsteigen der einzige moralisch, ethisch und rechtlich akzeptable Weg nach vorne ist. Die Herausforderung für die Zukunft der Fairness in der KI besteht darin, Systeme zu schaffen, die materiell fair sind, nicht nur prozedural fair durch Nivellierung. Das Aufsteigen ist eine komplexere Herausforderung: Es muss mit aktiven Schritten gepaart werden, um die realen Ursachen von Verzerrungen in KI-Systemen auszurotten. Technische Lösungen sind oft nur ein Pflaster, um mit einem kaputten System fertig zu werden. Die Verbesserung des Zugangs zur Gesundheitsversorgung, die Pflege vielfältigerer Datensätze und die Entwicklung von Tools, die speziell auf die Probleme historisch benachteiligter Gemeinschaften abzielen, können dazu beitragen, dass substanzielle Fairness Realität wird.

Dies ist eine viel komplexere Herausforderung, als einfach ein System zu optimieren, um zwei Zahlen zwischen Gruppen gleich zu machen. Dies erfordert möglicherweise nicht nur erhebliche technologische und methodische Innovationen, einschließlich der Neugestaltung von KI-Systemen von Grund auf, sondern auch erhebliche soziale Veränderungen in Bereichen wie Zugang und Ausgaben zur Gesundheitsversorgung.

So schwierig es auch sein mag, diese Neuausrichtung auf „faire KI“ ist unerlässlich. KI-Systeme treffen lebensverändernde Entscheidungen. Entscheidungen darüber, wie sie fair sein sollten und wem gegenüber, sind zu wichtig, um Fairness als ein einfaches mathematisches Problem zu behandeln, das es zu lösen gilt. Dies ist der Status quo, der zu Fairnessmethoden geführt hat, die Gleichheit durch Nivellierung erreichen. Bisher haben wir Methoden geschaffen, die mathematisch fair sind, aber benachteiligten Gruppen nicht nachweislich zugute kommen können und wollen.

Das ist nicht genug. Bestehende Tools werden als Lösung für algorithmische Fairness behandelt, aber bisher halten sie ihr Versprechen nicht. Ihre moralisch düsteren Auswirkungen machen sie weniger wahrscheinlich, dass sie verwendet werden, und können echte Lösungen für diese Probleme verlangsamen. Was wir brauchen, sind Systeme, die durch Levelaufstieg fair sind, die Gruppen mit schlechteren Leistungen helfen, ohne anderen willkürlich zu schaden. Das ist die Herausforderung, die wir jetzt lösen müssen. Wir brauchen KI, die inhaltlich, nicht nur mathematisch, fair ist.

source-114

Leave a Reply