[Saltar al contenido]

Mejorando la equidad en salud un algoritmo a la vez

Los datos y los algoritmos se utilizan con frecuencia en la industria de la salud para identificar poblaciones que pueden beneficiarse de la gestión de atención especializada. Los programas basados en datos que utilizan algoritmos pueden mejorar el manejo de enfermedades, los resultados de salud y reducir el costo de la atención. También tienen el potencial de eliminar el sesgo de la toma de decisiones humanas cuando se trata de acceder a la atención. 

Pero, ¿qué sucede cuando el propio algoritmo está sesgado? Investigaciones recientes han demostrado que los algoritmos en el cuidado de la salud[1] y otros campos[2] puede mostrar sesgo contra ciertas poblaciones debido al racismo sistémico que se refleja en los datos utilizados para construir estos cálculos basados en computadora. En el cuidado de la salud, por ejemplo, los datos sobre el costo y la utilización de la atención a menudo se toman como un indicador de la gravedad del problema. Sin embargo, los estudios muestran que las personas negras, indígenas y de color (BIPOC, por sus siglas en inglés) generalmente consumen atención médica a tasas más bajas que los blancos no hispanos a pesar de tener un estado de salud similar.[3] En este ejemplo, la dependencia excesiva de la utilización o de los indicadores basados en costos puede perpetuar el sesgo al no reconocer los problemas de salud en las poblaciones de BIPOC.

Recientemente, Beacon Health Options y Connecticut Behavioral Health Partnership (CT BHP) se embarcaron en un proyecto de 14 meses destinado a mejorar la salud y el bienestar de los beneficiarios de Medicaid sin hogar al brindar apoyo para la vivienda y acceso a cupones de vivienda financiados por el estado. Su primera solución de algoritmo se probó y reveló un sesgo que habría subseleccionado a personas de etnia hispana para participar en el programa de Servicios de Compromiso y Apoyo a la Vivienda de Connecticut (CHESS). El equipo de Beacon, dirigido por el vicepresidente sénior de análisis e innovación, el Dr. Robert Plant, y la científica de investigación en salud, la Dra. Krista Noam, se dispuso a desarrollar un nuevo algoritmo para mitigar y mejorar la equidad.

El algoritmo inicial de CHESS utilizó datos sobre estancias hospitalarias de pacientes hospitalizados y otros indicadores de utilización. Beacon descubrió que este algoritmo sobreseleccionaba a los blancos no hispanos y subseleccionaba a las personas con ascendencia hispana. El sesgo creció aún más cuando se incluyeron los ahorros de costos. 

Para mejorar la equidad, nuestros científicos de datos cambiaron su enfoque a un índice de comorbilidad basado en el diagnóstico, que se usa para predecir quién tiene más probabilidades de enfermarse gravemente o morir el próximo año. Este enfoque redujo significativamente el sesgo, pero no lo suficiente. Beacon descubrió que los hispanos aún tenían significativamente menos probabilidades de ser seleccionados para la inclusión en el programa, lo que indica que se necesitaban otros ajustes al algoritmo.

Para garantizar que la población seleccionada a través del algoritmo se pareciera más a la población total sin hogar, se incluyó la cantidad de días que un miembro había pasado en un refugio a lo largo de su vida. Utilizando este enfoque, los Dres. Plant y Noam descubrieron que la composición étnica/racial de los miembros que pasaban el algoritmo se asemejaba más a la población total cuando se seleccionaban los que pasaban más días en un refugio a lo largo de su vida.

El trabajo de Beacon con CT BHP está en curso y es solo un ejemplo de los avances que estamos logrando para mejorar la equidad para las poblaciones vulnerables. Para obtener más información sobre los Dres. El trabajo de Plant y Noam para eliminar con éxito el sesgo de los algoritmos, incluidos los útiles y no hacer, hacen planes para asistir a su sesión de carteles en la conferencia nacional del Consejo Nacional para el Bienestar Mental, NATCON 2022, en Washington, DC el lunes 11 de abril. Su sesión incluirá:

  • Una breve revisión de la literatura que habla de la presencia de sesgo en los algoritmos
  • Métricas comúnmente utilizadas para identificar poblaciones especializadas que pueden estar sujetas a la introducción de sesgos
  • Cómo probar el sesgo en los algoritmos
  • Riesgos asociados con ciertos métodos de mitigación de sesgos que podrían verse como discriminatorios
  • Cómo la incorporación de indicadores de determinantes sociales de la salud puede ayudar a mitigar el sesgo
  • Ejemplos del mundo real de algoritmos que magnifican y mitigan el sesgo en la selección de clientes o miembros

[1] Obermeyer et al., Science 366, 447–453 (2019) Disección del sesgo racial en un algoritmo utilizado para gestionar la salud de las poblaciones

[2] NY Times 7 de diciembre de 2020: Incluso los algoritmos imperfectos pueden mejorar el sistema de justicia penal, y 7 de febrero de 2020: Un algoritmo que otorga libertad o la quita

[3] Los reclamos se retiraron durante un año, lo que permitió una brecha de cuatro meses, a partir del mes en que se cargaron los datos del HMIS. Los datos se extrajeron independientemente de la cantidad de días que el miembro había sido elegible para Medicaid durante ese año.


Sin comentarios

Deja una respuesta

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados *
Los comentarios que sean inapropiados y / o que no pertenezcan al tema inmediato en cuestión no serán publicados.

Enlace superior
es_ESEspañol