[Aller au contenu]

Améliorer l'équité en santé un algorithme à la fois

Les données et les algorithmes sont fréquemment utilisés dans l'industrie de la santé pour identifier les populations susceptibles de bénéficier d'une gestion des soins spécialisés. Les programmes axés sur les données qui utilisent des algorithmes peuvent améliorer la gestion des maladies, les résultats de santé et réduire le coût des soins. Ils ont également le potentiel d'éliminer les préjugés de la prise de décision humaine en matière d'accès aux soins. 

Mais que se passe-t-il lorsque l'algorithme lui-même est biaisé ? Des recherches récentes ont montré que les algorithmes dans le domaine de la santé[1] et d'autres domaines[2] peut montrer un parti pris contre certaines populations en raison du racisme systémique qui se reflète dans les données utilisées pour construire ces calculs informatiques. Dans le domaine de la santé, par exemple, les données sur le coût et l'utilisation des soins sont souvent utilisées comme indicateur de la gravité du problème. Cependant, des études montrent que les Noirs, les Autochtones et les Personnes de couleur (BIPOC) consomment généralement des soins de santé à des taux inférieurs à ceux des Blancs non hispaniques malgré un état de santé similaire.[3] Dans cet exemple, une dépendance excessive à l'utilisation ou à des indicateurs basés sur les coûts peut perpétuer un biais en sous-identifiant les problèmes de santé dans les populations BIPOC.

Récemment, Beacon Health Options et le Connecticut Behavioral Health Partnership (CT BHP) se sont lancés dans un projet de 14 mois visant à améliorer la santé et le bien-être des bénéficiaires sans-abri de Medicaid en fournissant des aides au logement et l'accès à des bons de logement financés par l'État. Leur première solution algorithmique a été testée et a révélé un biais qui aurait sous-sélectionné les personnes d'origine hispanique pour participer au programme Connecticut Housing Engagement and Support Services (CHESS). L'équipe Beacon, dirigée par le vice-président principal de l'analyse et de l'innovation, le Dr Robert Plant, et la chercheuse en santé, le Dr Krista Noam, a ensuite entrepris de développer un nouvel algorithme pour atténuer et améliorer l'équité.

L'algorithme initial de CHESS utilisait des données sur les séjours hospitaliers et d'autres indicateurs d'utilisation. Beacon a constaté que cet algorithme sursélectionnait les Blancs non hispaniques et sous-sélectionnait les personnes d'origine hispanique. Le biais augmentait encore plus lorsque les économies de coûts étaient incluses. 

Pour améliorer l'équité, nos spécialistes des données se sont concentrés sur un indice de comorbidité basé sur le diagnostic, qui est utilisé pour prédire qui est le plus susceptible de tomber gravement malade ou de mourir au cours de l'année à venir. Cette approche a considérablement réduit les biais, mais pas assez. Beacon a constaté que les Hispaniques étaient encore beaucoup moins susceptibles d'être sélectionnés pour l'inclusion dans le programme, ce qui indique que d'autres ajustements à l'algorithme étaient nécessaires.

Pour s'assurer que la population sélectionnée au moyen de l'algorithme ressemble davantage à la population totale sans abri, le nombre de jours qu'un membre a passés dans un refuge tout au long de sa vie a été inclus. En utilisant cette approche, les Drs. Plant et Noam ont constaté que la composition ethnique/raciale des membres passant l'algorithme ressemblait davantage à la population totale lorsque ceux qui ont passé plus de jours dans un refuge tout au long de leur vie ont été sélectionnés.

Le travail de Beacon avec le CT BHP est en cours, et ce n'est qu'un exemple des progrès que nous faisons pour améliorer l'équité pour les populations vulnérables. Pour en savoir plus sur les Drs. Le travail de Plant et Noam sur l'élimination réussie des biais des algorithmes, y compris les choses à faire et à ne pas faire, prévoit d'assister à leur session d'affiches à la conférence nationale du Conseil national pour le bien-être mental, CONNAT 2022, à Washington, DC le lundi 11 avril. Leur session comprendra :

  • Une brève revue de la littérature parlant de la présence de biais dans les algorithmes
  • Paramètres couramment utilisés pour identifier les populations spécialisées susceptibles d'être sujettes à l'introduction d'un biais
  • Comment tester les biais dans les algorithmes
  • Risques associés à certaines méthodes d'atténuation des biais qui pourraient être considérées comme discriminatoires
  • Comment l'intégration d'indicateurs de déterminants sociaux de la santé peut aider à atténuer les biais
  • Exemples concrets d'algorithmes qui amplifient et atténuent les biais dans la sélection des clients ou des membres

[1] Obermeyer et al., Science 366, 447–453 (2019) Dissection des préjugés raciaux dans un algorithme utilisé pour gérer la santé des populations

[2] NY Times 7 décembre 2020 – Même des algorithmes imparfaits peuvent améliorer le système de justice pénale, et 7 février 2020 – Un algorithme qui accorde la liberté ou la supprime

[3] Les demandes ont été retirées pendant un an, permettant un intervalle de quatre mois, à compter du mois où les données du HMIS ont été chargées. Les données ont été extraites quel que soit le nombre de jours pendant lesquels le membre avait été éligible à Medicaid au cours de cette année.


Sans commentaires

Laisser un commentaire

Votre adresse email ne sera pas publiée. Les champs requis sont indiqués *
Les commentaires inappropriés et / ou sans rapport avec le sujet immédiat ne seront pas publiés.

Lien supérieur
fr_FRFrançais