[Zum Inhalt springen]

Verbesserung der gesundheitlichen Chancengleichheit mit einem Algorithmus nach dem anderen

Daten und Algorithmen werden in der Gesundheitsbranche häufig verwendet, um Bevölkerungsgruppen zu identifizieren, die von einem spezialisierten Pflegemanagement profitieren könnten. Datengesteuerte Programme, die Algorithmen verwenden, können das Krankheitsmanagement und die Gesundheitsergebnisse verbessern und die Pflegekosten senken. Sie haben auch das Potenzial, Vorurteile aus der menschlichen Entscheidungsfindung zu entfernen, wenn es um den Zugang zu medizinischer Versorgung geht. 

Aber was passiert, wenn der Algorithmus selbst voreingenommen ist? Neuere Forschungen haben gezeigt, dass Algorithmen im Gesundheitswesen[1] und andere Felder[2] kann aufgrund von systemischem Rassismus Voreingenommenheit gegenüber bestimmten Bevölkerungsgruppen zeigen, was sich in den Daten widerspiegelt, die zur Erstellung dieser computergestützten Berechnungen verwendet werden. Im Gesundheitswesen zum Beispiel werden Daten zu Kosten und Inanspruchnahme der Pflege oft als Indikator für die Schwere des Problems herangezogen. Studien zeigen jedoch, dass Schwarze, Indigene und Farbige (BIPOC) Gesundheitsversorgung in der Regel zu geringeren Raten in Anspruch nehmen als nicht-hispanische Weiße, obwohl sie einen ähnlichen Gesundheitszustand haben.[3] In diesem Beispiel kann eine übermäßige Abhängigkeit von nutzungs- oder kostenbasierten Indikatoren die Voreingenommenheit aufrechterhalten, indem Gesundheitsprobleme in BIPOC-Populationen unterschätzt werden.

Vor kurzem haben Beacon Health Options und die Connecticut Behavioral Health Partnership (CT BHP) ein 14-monatiges Projekt gestartet, das darauf abzielt, die Gesundheit und das Wohlbefinden von obdachlosen Medicaid-Empfängern zu verbessern, indem Wohnunterstützung und Zugang zu staatlich finanzierten Wohngutscheinen bereitgestellt werden. Ihre erste Algorithmuslösung wurde getestet und zeigte eine Verzerrung, die Personen mit hispanischer Ethnizität für die Teilnahme am Connecticut Housing Engagement and Support Services (CHESS)-Programm unterselektiert hätte. Das Beacon-Team unter der Leitung von Dr. Robert Plant, SVP of Analytics and Innovation, und Dr. Krista Noam, Wissenschaftlerin für Gesundheitsforschung, machte sich dann daran, einen neuen Algorithmus zu entwickeln, um Gerechtigkeit zu mindern und zu verbessern.

Der anfängliche Algorithmus für CHESS verwendete Daten zu stationären Krankenhausaufenthalten und anderen Nutzungsindikatoren. Beacon fand heraus, dass dieser Algorithmus nicht-hispanische Weiße überselektierte und Menschen mit hispanischer Herkunft unterselektierte. Die Verzerrung wurde sogar noch größer, wenn Kosteneinsparungen einbezogen wurden. 

Um die Gerechtigkeit zu verbessern, haben unsere Data Scientists ihren Fokus auf einen diagnosebasierten Komorbiditätsindex verlagert, der verwendet wird, um vorherzusagen, wer im kommenden Jahr am ehesten schwer erkranken oder sterben wird. Dieser Ansatz reduzierte die Voreingenommenheit signifikant, aber nicht ganz genug. Beacon stellte fest, dass Hispanoamerikaner immer noch mit deutlich geringerer Wahrscheinlichkeit für die Aufnahme in das Programm ausgewählt wurden, was darauf hindeutet, dass weitere Anpassungen des Algorithmus erforderlich waren.

Um sicherzustellen, dass die durch den Algorithmus ausgewählte Bevölkerung der Gesamtbevölkerung, die von Obdachlosigkeit betroffen ist, ähnlicher ist, wurde die Anzahl der Tage berücksichtigt, die ein Mitglied während seines gesamten Lebens in einer Notunterkunft verbracht hat. Unter Verwendung dieses Ansatzes haben Dr. Plant und Noam stellten fest, dass die ethnische/rassische Zusammensetzung der Mitglieder, die den Algorithmus bestanden, eher der Gesamtbevölkerung entsprach, wenn diejenigen ausgewählt wurden, die im Laufe ihres Lebens mehr Tage in einem Tierheim verbrachten.

Die Arbeit von Beacon mit dem CT BHP dauert an und ist nur ein Beispiel für die Fortschritte, die wir machen, um die Chancengleichheit für gefährdete Bevölkerungsgruppen zu verbessern. Um mehr über Dr. Plant und Noams Arbeit zur erfolgreichen Beseitigung von Vorurteilen aus Algorithmen, einschließlich hilfreicher Gebote und Verbote, planen die Teilnahme an ihrer Postersitzung auf der nationalen Konferenz für den National Council for Mental Wellbeing, NATCON 2022, in Washington, DC am Montag, den 11. April. Ihre Sitzung umfasst:

  • Ein kurzer Literaturüberblick über das Vorhandensein von Voreingenommenheit in Algorithmen
  • Metriken, die üblicherweise verwendet werden, um Spezialpopulationen zu identifizieren, die einer Verzerrung unterliegen können
  • Wie man Algorithmen auf Bias testet
  • Risiken im Zusammenhang mit bestimmten Methoden zur Minderung von Vorurteilen, die als diskriminierend angesehen werden könnten
  • Wie die Einbeziehung von Indikatoren sozialer Determinanten von Gesundheit dazu beitragen kann, Verzerrungen abzumildern
  • Beispiele aus der Praxis für Algorithmen, die Voreingenommenheit bei der Kunden- oder Mitgliederauswahl verstärken und mindern

[1] Obermeyer et al., Science 366, 447–453 (2019) Sezieren von Rassenvorurteilen in einem Algorithmus zur Verwaltung der Gesundheit von Bevölkerungen

[2] NY Times 7. Dezember 2020 – Auch unvollkommene Algorithmen können das Strafjustizsystem verbessern, und 7. Februar 2020 – Ein Algorithmus, der Freiheit gewährt oder sie wegnimmt

[3] Ansprüche wurden für ein Jahr zurückgezogen, wobei eine Lücke von vier Monaten ab dem Monat, in dem die HMIS-Daten geladen wurden, berücksichtigt wurde. Die Daten wurden unabhängig von der Anzahl der Tage gezogen, an denen das Mitglied in diesem Jahr Anspruch auf Medicaid hatte.


Keine Kommentare

Schreibe einen Kommentar

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *
Kommentare, die unangemessen sind und / oder sich nicht auf das jeweilige Thema beziehen, werden nicht veröffentlicht.

Top Link
de_DEDeutsch