[Ir para o conteúdo]

Melhorando a equidade em saúde um algoritmo de cada vez

Dados e algoritmos são frequentemente usados no setor de saúde para identificar populações que podem se beneficiar do gerenciamento de cuidados especializados. Programas orientados por dados que utilizam algoritmos podem melhorar o gerenciamento de doenças, resultados de saúde e reduzir o custo dos cuidados. Eles também têm o potencial de remover o preconceito da tomada de decisão humana quando se trata de acesso aos cuidados. 

Mas o que acontece quando o próprio algoritmo é tendencioso? Pesquisas recentes mostraram que algoritmos na área da saúde[1] e outros campos[2] pode mostrar preconceito contra certas populações devido ao racismo sistêmico que se reflete nos dados usados para construir esses cálculos baseados em computador. Na área da saúde, por exemplo, dados sobre custo e utilização de cuidados são frequentemente considerados como um indicador da gravidade do problema. No entanto, estudos mostram que negros, indígenas e pessoas de cor (BIPOC) normalmente consomem cuidados de saúde a taxas mais baixas do que os brancos não hispânicos, apesar de terem estado de saúde semelhante.[3] Neste exemplo, a dependência excessiva da utilização ou de indicadores baseados em custos pode perpetuar o viés ao não reconhecer problemas de saúde em populações BIPOC.

Recentemente, a Beacon Health Options e a Connecticut Behavioral Health Partnership (CT BHP) iniciaram um projeto de 14 meses com o objetivo de melhorar a saúde e o bem-estar dos beneficiários do Medicaid desabrigados, fornecendo apoio habitacional e acesso a vales habitacionais financiados pelo estado. Sua primeira solução de algoritmo foi testada e revelou um viés que teria subselecionado indivíduos com etnia hispânica para participação no programa Connecticut Housing Engagement and Support Services (CHESS). A equipe do Beacon, liderada pelo vice-presidente sênior de análise e inovação, Dr. Robert Plant, e a cientista de pesquisa em saúde, Dra. Krista Noam, decidiu desenvolver um novo algoritmo para mitigar e melhorar a equidade.

O algoritmo inicial do CHESS utilizou dados sobre internações hospitalares e outros indicadores de utilização. Beacon descobriu que esse algoritmo selecionou demais brancos não hispânicos e subselecionou pessoas com herança hispânica. O viés cresceu ainda mais quando a economia de custos foi incluída. 

Para melhorar a equidade, nossos cientistas de dados mudaram seu foco para um índice de comorbidade baseado em diagnóstico, que é usado para prever quem tem maior probabilidade de ficar gravemente doente ou morrer no próximo ano. Essa abordagem reduziu significativamente o viés, mas não o suficiente. Beacon descobriu que os hispânicos ainda eram significativamente menos propensos a serem selecionados para inclusão no programa, indicando que outros ajustes no algoritmo eram necessários.

Para garantir que a população selecionada por meio do algoritmo se assemelhasse mais ao total da população em situação de rua, foi incluído o número de dias que um membro passou em abrigo ao longo de sua vida. Utilizando esta abordagem, os Drs. Plant e Noam descobriram que a composição étnica/racial dos membros que passavam pelo algoritmo se assemelhava mais à população total quando aqueles que passavam mais dias em um abrigo ao longo da vida eram selecionados.

O trabalho da Beacon com o CT BHP está em andamento e é apenas um exemplo dos avanços que estamos fazendo para melhorar a equidade para populações vulneráveis. Para saber mais sobre os Drs. O trabalho de Plant e Noam na remoção bem-sucedida de preconceitos de algoritmos, incluindo prós e contras úteis, planeja participar de sua sessão de pôsteres na conferência nacional do Conselho Nacional de Bem-Estar Mental, NATCON 2022, em Washington, DC na segunda-feira, 11 de abril. Sua sessão incluirá:

  • Uma breve revisão da literatura falando sobre a presença de viés em algoritmos
  • Métricas comumente usadas para identificar populações especializadas que podem estar sujeitas à introdução de viés
  • Como testar o viés em algoritmos
  • Riscos associados a certos métodos de mitigação de preconceitos que podem ser vistos como discriminatórios
  • Como a incorporação de indicadores de determinantes sociais da saúde pode ajudar a mitigar o viés
  • Exemplos do mundo real de algoritmos que ampliam e atenuam o viés na seleção de clientes ou membros

[1] Obermeyer et al., Science 366, 447–453 (2019) Dissecando o preconceito racial em um algoritmo usado para gerenciar a saúde das populações

[2] NY Times 7 de dezembro de 2020 – mesmo algoritmos imperfeitos podem melhorar o sistema de justiça criminal e 7 de fevereiro de 2020 – um algoritmo que concede liberdade ou a tira

[3] As reivindicações foram retiradas por um ano, permitindo um intervalo de quatro meses, a partir do mês em que os dados do HMIS foram carregados. Os dados foram extraídos independentemente do número de dias em que o membro foi elegível para o Medicaid durante aquele ano.


Sem comentários

Deixe uma resposta

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados com *
Comentários inadequados e / ou não pertinentes ao tópico em questão não serão publicados.

Link Superior
pt_PTPortuguês