Wird KI gesundheitliche Ungleichheiten aufrechterhalten oder beseitigen?

15. Mai 2023 – Wo auch immer Sie hinschauen: Anwendungen des maschinellen Lernens in der künstlichen Intelligenz werden genutzt, um den Status quo zu verändern. Dies gilt insbesondere für das Gesundheitswesen, wo technologische Fortschritte die Entdeckung von Arzneimitteln und die Identifizierung potenzieller neuer Heilmittel beschleunigen.

Aber diese Fortschritte kommen nicht ohne Warnsignale. Sie haben auch die vermeidbaren Unterschiede in Bezug auf Krankheitslast, Verletzungen, Gewalt und Möglichkeiten zur Erreichung einer optimalen Gesundheit unter die Lupe genommen unverhältnismäßig beeinträchtigen farbige Menschen und andere unterversorgte Gemeinschaften.

Die Frage ist, ob KI-Anwendungen die gesundheitlichen Ungleichheiten weiter vergrößern oder dazu beitragen werden, sie zu verringern, insbesondere wenn es um die Entwicklung klinischer Algorithmen geht, mit denen Ärzte Krankheiten erkennen und diagnostizieren, Ergebnisse vorhersagen und Behandlungsstrategien steuern können.

„Eines der Probleme, die sich bei der KI im Allgemeinen und insbesondere in der Medizin gezeigt haben, besteht darin, dass diese Algorithmen verzerrt sein können, was bedeutet, dass sie bei verschiedenen Personengruppen unterschiedlich funktionieren“, sagte Paul Yi, MD, Assistenzprofessor für diagnostische Radiologie und Nuklearmedizin Medizin an der University of Maryland School of Medicine und Direktor des University of Maryland Medical Intelligent Imaging (UM2ii) Center.

„Für die Medizin bedeutet eine falsche Diagnose je nach Situation buchstäblich Leben oder Tod“, sagte Yi.

Yi ist Co-Autor einer Studie, die letzten Monat in der Zeitschrift veröffentlicht wurde Naturmedizin in dem er und seine Kollegen versuchten herauszufinden, ob medizinische Bildgebungsdatensätze, die in Datenwissenschaftswettbewerben verwendet werden, die Fähigkeit, Verzerrungen in KI-Modellen zu erkennen, unterstützen oder behindern. An diesen Wettbewerben nehmen Informatiker und Ärzte teil, die Daten aus der ganzen Welt sammeln. Die Teams konkurrieren um die Entwicklung der besten klinischen Algorithmen, von denen viele in die Praxis übernommen werden.

Die Forscher nutzten eine beliebte Website für Datenwissenschaftswettbewerbe namens Kaggle für medizinische Bildgebungswettbewerbe, die zwischen 2010 und 2022 stattfanden. Anschließend werteten sie die Datensätze aus, um herauszufinden, ob demografische Variablen gemeldet wurden. Abschließend untersuchten sie, ob der Wettbewerb die demografische Leistung in die Bewertungskriterien für die Algorithmen einbezog.

Yi sagte, dass von den 23 in die Studie einbezogenen Datensätzen „die Mehrheit – 61 % – überhaupt keine demografischen Daten gemeldet habe.“ Neun Wettbewerbe meldeten demografische Daten (hauptsächlich Alter und Geschlecht) und einer berichtete über Rasse und ethnische Zugehörigkeit.

„Keiner dieser Data-Science-Wettbewerbe, unabhängig davon, ob sie Demografien berichteten oder nicht, bewertete diese Verzerrungen, d. h. die Antwortgenauigkeit bei Männern gegenüber Frauen oder bei weißen gegenüber schwarzen gegenüber asiatischen Patienten“, sagte Yi. Die Implikation? „Wenn uns die demografischen Daten fehlen, können wir keine Vorurteile messen“, erklärte er.

Algorithmische Hygiene, Kontrollen und Abwägungen

„Um Verzerrungen in der KI zu reduzieren, müssen sich Entwickler, Erfinder und Forscher von KI-basierten medizinischen Technologien bewusst darauf vorbereiten, diese zu vermeiden, indem sie die Darstellung bestimmter Bevölkerungsgruppen in ihrem Datensatz proaktiv verbessern“, sagte Bertalan Meskó, MD, PhD, Direktor des Medizinisches Futuristisches Institut in Budapest, Ungarn.

Ein Ansatz, den Meskó als „algorithmische Hygiene“ bezeichnete, ähnelt dem, den eine Gruppe von Forschern an der Emory University in Atlanta verfolgte, als sie einen granularen Datensatz zu Rassenvielfalt erstellten – der EMory Breast Imaging-Datensatz (EMBED) – das besteht aus 3,4 Millionen Screening- und diagnostischen Brustkrebs-Mammographiebildern. 42 Prozent der 11.910 vertretenen Patienten waren nach eigenen Angaben afroamerikanische Frauen.

„Die Tatsache, dass unsere Datenbank vielfältig ist, ist sozusagen ein direktes Nebenprodukt unserer Patientenpopulation“, sagte Hari Trivedi, MD, Assistenzprofessor in den Abteilungen für Radiologie und Bildgebungswissenschaften sowie für Biomedizinische Informatik an der Emory University School of Medicine und Co-Direktor des Labors für Gesundheitsinnovation und translationale Informatik (HITI).

„Schon jetzt sind in der überwiegenden Mehrheit der Datensätze, die bei der Entwicklung von Deep-Learning-Modellen verwendet werden, diese demografischen Informationen nicht enthalten“, sagte Trivedi. „Bei EMBED und allen zukünftigen Datensätzen, die wir entwickeln, war es jedoch wirklich wichtig, diese Informationen verfügbar zu machen, denn ohne sie ist es unmöglich zu wissen, wie und wann Ihr Modell verzerrt sein könnte oder dass das Modell, das Sie testen, verzerrt sein könnte.“

„Man kann nicht einfach die Augen davor verschließen“, sagte er.

Wichtig ist, dass Voreingenommenheit zu jedem Zeitpunkt im Entwicklungszyklus der KI eingeführt werden kann, nicht nur zu Beginn.

„Entwickler könnten statistische Tests verwenden, mit denen sie feststellen können, ob sich die zum Trainieren des Algorithmus verwendeten Daten erheblich von den tatsächlichen Daten unterscheiden, auf die sie in realen Umgebungen stoßen“, sagte Meskó. „Dies könnte auf Verzerrungen aufgrund der Trainingsdaten hinweisen.“

Ein weiterer Ansatz ist das „De-Biasing“, das dabei hilft, Unterschiede zwischen Gruppen oder Einzelpersonen basierend auf individuellen Attributen zu beseitigen. Meskó verwies auf die Open Source von IBM AI Fairness 360-ToolkitHierbei handelt es sich um einen umfassenden Satz von Metriken und Algorithmen, auf die Forscher und Entwickler zugreifen können, um Verzerrungen in ihren eigenen Datensätzen und KIs zu reduzieren.

Checks and Balances sind ebenfalls wichtig. Dazu könnte zum Beispiel gehören, „die Entscheidungen der Algorithmen durch den Menschen zu überprüfen und umgekehrt.“ Auf diese Weise können sie sich gegenseitig zur Rechenschaft ziehen und dazu beitragen, Voreingenommenheit abzumildern“, sagte Meskó.

Den Menschen auf dem Laufenden halten

Apropos Checks and Balances: Müssen Patienten befürchten, dass eine Maschine das Urteilsvermögen eines Arztes ersetzt oder möglicherweise gefährliche Entscheidungen trifft, weil ein entscheidender Datenbestandteil fehlt?

Trevedi erwähnte, dass KI-Forschungsrichtlinien in der Entwicklung seien, die sich speziell auf Regeln konzentrieren, die beim Testen und Bewerten von Modellen zu berücksichtigen sind, insbesondere bei Open-Source-Modellen. Auch die FDA und das Ministerium für Gesundheit und Soziale Dienste versuchen, dies zu regulieren Entwicklung und Validierung von Algorithmen mit dem Ziel, Genauigkeit, Transparenz und Fairness zu verbessern.

Wie die Medizin selbst ist KI keine Einheitslösung, und vielleicht können Checks and Balances, eine konsistente Bewertung und konzertierte Bemühungen zum Aufbau vielfältiger, inklusiver Datensätze die tiefgreifenden gesundheitlichen Ungleichheiten angehen und letztendlich dazu beitragen, sie zu überwinden.

Gleichzeitig „denke ich, dass wir weit davon entfernt sind, das menschliche Element vollständig zu eliminieren und keine Kliniker in den Prozess einzubeziehen“, sagte Kelly Michelson, MD, MPH, Direktorin des Zentrums für Bioethik und medizinische Geisteswissenschaften an der Northwestern University Feinberg School of Medicine und behandelnder Arzt am Ann & Robert H. Lurie Children’s Hospital of Chicago.

„Es gibt tatsächlich einige großartige Möglichkeiten für KI, Ungleichheiten zu verringern“, sagte sie und wies auch darauf hin, dass KI nicht einfach „diese eine große Sache“ sei.

„KI bedeutet viele verschiedene Dinge an vielen verschiedenen Orten“, sagt Michelson. „Und die Art und Weise, wie es verwendet wird, ist anders. Es ist wichtig anzuerkennen, dass Probleme im Zusammenhang mit Voreingenommenheit und die Auswirkungen auf gesundheitliche Ungleichheiten unterschiedlich sein werden, je nachdem, um welche Art von KI es sich handelt.“

source site-39

Leave a Reply