[Salta al contenuto]

Migliorare l'equità sanitaria un algoritmo alla volta

Dati e algoritmi sono usati frequentemente nel settore sanitario per identificare le popolazioni che possono trarre vantaggio dalla gestione delle cure specialistiche. I programmi basati sui dati che utilizzano algoritmi possono migliorare la gestione delle malattie, i risultati sulla salute e ridurre i costi delle cure. Hanno anche il potenziale per rimuovere i pregiudizi dal processo decisionale umano quando si tratta di accedere alle cure. 

Ma cosa succede quando l'algoritmo stesso è distorto? Ricerche recenti hanno dimostrato che gli algoritmi in ambito sanitario[1] e altri campi[2] possono mostrare pregiudizi nei confronti di determinate popolazioni a causa del razzismo sistemico che si riflette nei dati utilizzati per costruire questi calcoli basati su computer. Nel settore sanitario, ad esempio, i dati sui costi e sull'utilizzo delle cure sono spesso considerati indicatori della gravità del problema. Tuttavia, gli studi mostrano che i neri, gli indigeni e le persone di colore (BIPOC) in genere consumano assistenza sanitaria a tassi inferiori rispetto ai bianchi non ispanici nonostante abbiano uno stato di salute simile.[3] In questo esempio, l'eccessivo affidamento sull'utilizzo o sugli indicatori basati sui costi può perpetuare il pregiudizio non riconoscendo i problemi di salute nelle popolazioni BIPOC.

Di recente, Beacon Health Options e il Connecticut Behavioral Health Partnership (CT BHP) hanno intrapreso un progetto di 14 mesi volto a migliorare la salute e il benessere dei beneficiari di Medicaid senzatetto fornendo supporto abitativo e l'accesso a buoni abitativi finanziati dallo stato. La loro prima soluzione di algoritmo è stata testata e ha rivelato un pregiudizio che avrebbe sottoselezionato individui di etnia ispanica per la partecipazione al programma Connecticut Housing Engagement and Support Services (CHESS). Il team di Beacon, guidato dall'SVP di Analytics and Innovation, il dott. Robert Plant, e dalla ricercatrice sanitaria, la dott.ssa Krista Noam, ha quindi deciso di sviluppare un nuovo algoritmo per mitigare e migliorare l'equità.

L'algoritmo iniziale di CHESS utilizzava i dati sulle degenze ospedaliere e altri indicatori di utilizzo. Beacon ha scoperto che questo algoritmo ha sovraselezionato i bianchi non ispanici e le persone con origini ispaniche sottoselezionate. La distorsione è cresciuta ancora di più quando sono stati inclusi i risparmi sui costi. 

Per migliorare l'equità, i nostri data scientist hanno spostato la loro attenzione su un indice di comorbilità basato sulla diagnosi, che viene utilizzato per prevedere chi ha maggiori probabilità di ammalarsi gravemente o morire nel prossimo anno. Questo approccio ha ridotto la distorsione in modo significativo ma non abbastanza. Beacon ha scoperto che gli ispanici avevano ancora molte meno probabilità di essere selezionati per l'inclusione del programma, indicando che erano necessari altri aggiustamenti all'algoritmo.

Per garantire che la popolazione selezionata attraverso l'algoritmo assomigliasse di più alla popolazione totale che vive senza fissa dimora, è stato incluso il numero di giorni trascorsi in un rifugio per tutta la vita. Utilizzando questo approccio, i dott. Plant e Noam hanno scoperto che la composizione etnico/razziale dei membri che passavano l'algoritmo assomigliava di più alla popolazione totale quando venivano selezionati coloro che trascorrevano più giorni in un rifugio per tutta la vita.

Il lavoro di Beacon con il CT BHP è in corso e solo un esempio dei progressi che stiamo facendo per migliorare l'equità per le popolazioni vulnerabili. Per saperne di più sui dott. Il lavoro di Plant e Noam per rimuovere con successo i pregiudizi dagli algoritmi, comprese le cose da fare e da non fare utili, pianificano di partecipare alla loro sessione di poster alla conferenza nazionale per il Consiglio nazionale per il benessere mentale, NATCON 2022, a Washington, DC lunedì 11 aprile. La loro sessione includerà:

  • Una breve rassegna della letteratura che parla della presenza di bias negli algoritmi
  • Metriche comunemente utilizzate per identificare popolazioni specializzate che possono essere soggette a introduzione di bias
  • Come verificare la distorsione negli algoritmi
  • Rischi associati a determinati metodi di mitigazione dei bias che potrebbero essere considerati discriminatori
  • In che modo l'incorporazione di indicatori dei determinanti sociali della salute può aiutare a mitigare i pregiudizi
  • Esempi del mondo reale di algoritmi che amplificano e mitigano i pregiudizi nella selezione di clienti o membri

[1] Obermeyer et al., Science 366, 447–453 (2019) Dissezione del pregiudizio razziale in un algoritmo utilizzato per gestire la salute delle popolazioni

[2] NY Times 7 dicembre 2020 – Anche gli algoritmi imperfetti possono migliorare il sistema di giustizia penale e 7 febbraio 2020 – Un algoritmo che concede la libertà o la porta via

[3] I reclami sono stati ritirati per un anno, consentendo un intervallo di quattro mesi, a partire dal mese in cui sono stati caricati i dati HMIS. I dati sono stati estratti indipendentemente dal numero di giorni in cui il membro era stato idoneo per Medicaid durante quell'anno.


Non ci sono commenti

Lascia un commento

L'indirizzo email non verrà pubblicato. I campi richiesti sono contrassegnati *
I commenti inappropriati e / o non attinenti all'argomento in questione non verranno pubblicati.

Collegamento superiore
it_ITItaliano