[Doorgaan naar artikel]

Verbetering van de gezondheidsgelijkheid één algoritme tegelijk

Gegevens en algoritmen worden vaak gebruikt in de gezondheidszorg om populaties te identificeren die baat kunnen hebben bij specialistisch zorgbeheer. Gegevensgestuurde programma's die gebruikmaken van algoritmen kunnen het ziektebeheer en de gezondheidsresultaten verbeteren en de zorgkosten verlagen. Ze hebben ook het potentieel om vooroordelen weg te nemen bij menselijke besluitvorming als het gaat om toegang tot zorg. 

Maar wat gebeurt er als het algoritme zelf bevooroordeeld is? Recent onderzoek heeft aangetoond dat algoritmen in de zorg[1] en andere velden[2] kan vooringenomenheid vertonen tegen bepaalde populaties als gevolg van systemisch racisme dat wordt weerspiegeld in de gegevens die worden gebruikt om deze computergebaseerde berekeningen te maken. In de gezondheidszorg wordt bijvoorbeeld vaak vertrouwd op gegevens over kosten en zorggebruik als indicator voor de ernst van het probleem. Studies tonen echter aan dat zwarte, inheemse en gekleurde mensen (BIPOC) doorgaans minder vaak gezondheidszorg gebruiken dan niet-Spaanse blanken, ondanks dat ze een vergelijkbare gezondheidsstatus hebben.[3] In dit voorbeeld kan een te grote afhankelijkheid van gebruiks- of kostengebaseerde indicatoren vooringenomenheid in stand houden door gezondheidsproblemen in BIPOC-populaties te weinig te herkennen.

Onlangs zijn Beacon Health Options en het Connecticut Behavioral Health Partnership (CT BHP) begonnen aan een 14 maanden durend project gericht op het verbeteren van de gezondheid en het welzijn van dakloze Medicaid-ontvangers door huisvestingsondersteuning en toegang tot door de staat gefinancierde huisvestingsvouchers te bieden. Hun eerste algoritmeoplossing werd getest en onthulde een vooroordeel dat ondergeselecteerde individuen met Spaanse etniciteit zou hebben voor deelname aan het Connecticut Housing Engagement and Support Services (CHESS) -programma. Het Beacon-team, onder leiding van SVP van Analytics en Innovatie dr. Robert Plant en gezondheidsonderzoeker dr. Krista Noam, ging vervolgens aan de slag om een nieuw algoritme te ontwikkelen om het eigen vermogen te verminderen en te verbeteren.

Het oorspronkelijke algoritme voor CHESS maakte gebruik van gegevens over ziekenhuisopnames en andere gebruiksindicatoren. Beacon ontdekte dat dit algoritme overgeselecteerde niet-Spaanse blanken en ondergeselecteerde mensen met Latijns-Amerikaanse afkomst. De vertekening werd nog groter wanneer kostenbesparingen werden meegerekend. 

Om de rechtvaardigheid te verbeteren, hebben onze datawetenschappers hun focus verlegd naar een op diagnoses gebaseerde comorbiditeitsindex, die wordt gebruikt om te voorspellen wie het komende jaar de meeste kans heeft om ernstig ziek te worden of te overlijden. Deze aanpak verminderde de vooringenomenheid aanzienlijk, maar niet voldoende. Beacon ontdekte dat Hispanics nog steeds aanzienlijk minder kans hadden om te worden geselecteerd voor programma-opname, wat aangeeft dat andere aanpassingen aan het algoritme nodig waren.

Om ervoor te zorgen dat de via het algoritme geselecteerde populatie meer leek op de totale populatie die dakloos was, werd het aantal dagen dat een lid zijn hele leven in de opvang had doorgebracht, opgenomen. Gebruikmakend van deze aanpak, Drs. Plant en Noam ontdekten dat de etnische/raciale samenstelling van de leden die het algoritme passeerden, meer leek op de totale populatie wanneer degenen die hun hele leven meer dagen in een opvangcentrum hadden doorgebracht, werden geselecteerd.

Beacon's werk met de CT BHP is aan de gang, en slechts een voorbeeld van de vooruitgang die we boeken om de gelijkheid van kwetsbare bevolkingsgroepen te verbeteren. Voor meer informatie over Drs. Het werk van Plant en Noam om met succes vooroordelen uit algoritmen te verwijderen, inclusief nuttige do's en don'ts, maken plannen om hun postersessie bij te wonen op de nationale conferentie voor de National Council for Mental Wellbeing, NATCON 2022, in Washington, DC op maandag 11 april. Hun sessie omvat:

  • Een kort literatuuronderzoek waarin wordt gesproken over de aanwezigheid van vooringenomenheid in algoritmen
  • Statistieken die vaak worden gebruikt om gespecialiseerde populaties te identificeren die onderhevig kunnen zijn aan het introduceren van vooringenomenheid
  • Hoe te testen op vooringenomenheid in algoritmen
  • Risico's verbonden aan bepaalde methoden voor het verminderen van vooroordelen die als discriminerend kunnen worden beschouwd
  • Hoe het opnemen van indicatoren van sociale determinanten van gezondheid kan helpen om vooringenomenheid te verminderen
  • Voorbeelden uit de praktijk van algoritmen die vooroordelen bij de selectie van klanten of leden vergroten en verminderen

[1] Obermeyer et al., Science 366, 447-453 (2019) Raciale vooroordelen ontleden in een algoritme dat wordt gebruikt om de gezondheid van populaties te beheren

[2] NY Times 7 december 2020 - Zelfs onvolmaakte algoritmen kunnen het strafrechtsysteem verbeteren, en 7 februari 2020 - een algoritme dat vrijheid verleent of wegneemt

[3] Claims werden voor een jaar ingetrokken, waardoor er een gat van vier maanden was, vanaf de maand dat de HMIS-gegevens werden geladen. Er werden gegevens verzameld, ongeacht het aantal dagen dat het lid in dat jaar in aanmerking kwam voor Medicaid.


Geen opmerkingen

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *
Opmerkingen die ongepast zijn en / of niet betrekking hebben op het onmiddellijke onderwerp, worden niet gepubliceerd.

Top Link
nl_NLNederlands