[Lumaktaw sa nilalaman]

Pagpapabuti ng pantay na kalusugan ng isang algorithm sa isang pagkakataon

Ang data at mga algorithm ay madalas na ginagamit sa industriya ng pangangalagang pangkalusugan upang matukoy ang mga populasyon na maaaring makinabang mula sa pamamahala ng espesyalidad na pangangalaga. Ang mga programang batay sa data na gumagamit ng mga algorithm ay maaaring mapabuti ang pamamahala ng sakit, mga resulta sa kalusugan at bawasan ang halaga ng pangangalaga. Mayroon din silang potensyal na alisin ang pagkiling sa paggawa ng desisyon ng tao pagdating sa pag-access sa pangangalaga. 

Ngunit ano ang mangyayari kapag ang algorithm mismo ay may kinikilingan? Ipinakita ng kamakailang pananaliksik na ang mga algorithm sa pangangalagang pangkalusugan[1] at iba pang larangan[2] ay maaaring magpakita ng pagkiling laban sa ilang partikular na populasyon dahil sa sistematikong kapootang panlahi na makikita sa data na ginamit sa pagbuo ng mga kalkulasyong ito na nakabatay sa computer. Sa pangangalagang pangkalusugan halimbawa, ang data sa gastos at paggamit ng pangangalaga ay madalas na umaasa bilang isang tagapagpahiwatig ng kalubhaan ng problema. Gayunpaman, ipinapakita ng mga pag-aaral na ang Black, Indigenous, and People of Color (BIPOC) ay karaniwang kumukonsumo ng pangangalagang pangkalusugan sa mas mababang mga rate kaysa sa mga hindi Hispanic na Puti sa kabila ng pagkakaroon ng katulad na katayuan sa kalusugan.[3] Sa halimbawang ito, ang sobrang pag-asa sa paggamit o mga indicator na nakabatay sa gastos ay maaaring magpatuloy ng bias sa pamamagitan ng hindi pagkilala sa mga isyu sa kalusugan sa mga populasyon ng BIPOC.

Kamakailan, sinimulan ng Beacon Health Options at ng Connecticut Behavioral Health Partnership (CT BHP) ang isang 14 na buwang proyekto na naglalayong pahusayin ang kalusugan at kagalingan ng mga walang tirahan na tumatanggap ng Medicaid sa pamamagitan ng pagbibigay ng mga suporta sa pabahay at pag-access sa mga voucher sa pabahay na pinondohan ng estado. Ang kanilang unang algorithm na solusyon ay nasubok at nagsiwalat ng isang pagkiling na magkakaroon ng kulang sa napiling mga indibidwal na may Hispanic na etnisidad para sa pakikilahok sa programang Connecticut Housing Engagement and Support Services (CHESS). Ang koponan ng Beacon, na pinamumunuan ng SVP ng Analytics at Innovation na si Dr. Robert Plant at Health Research Scientist na si Dr. Krista Noam ay nagsimulang bumuo ng isang bagong algorithm upang pagaanin at pahusayin ang equity.

Ang paunang algorithm para sa CHESS ay gumamit ng data sa mga pananatili sa ospital sa inpatient at iba pang mga indicator ng paggamit. Nalaman ng Beacon na ang algorithm na ito ay labis na pinili ang mga hindi Hispanic na Puti at kulang ang napiling mga taong may Hispanic heritage. Ang pagkiling ay lumaki nang mas malaki kapag ang pagtitipid sa gastos ay kasama. 

Upang mapabuti ang katarungan, inilipat ng aming mga data scientist ang kanilang pagtuon sa isang index ng komorbididad na nakabatay sa diagnosis, na ginagamit upang mahulaan kung sino ang pinakamalamang na magkasakit o mamatay sa darating na taon. Ang diskarte na ito ay makabuluhang nagbawas ng bias ngunit hindi sapat. Nalaman ng Beacon na ang mga Hispanics ay mas maliit pa rin ang posibilidad na mapili para sa pagsasama ng programa, na nagpapahiwatig na ang iba pang mga pagsasaayos sa algorithm ay kailangan.

Upang matiyak na ang populasyon na pinili sa pamamagitan ng algorithm ay mas malapit na katulad ng kabuuang populasyon na nakakaranas ng kawalan ng tirahan, ang bilang ng mga araw na ginugol ng isang miyembro sa shelter sa buong buhay nila. Gamit ang diskarteng ito, sinabi ni Dr. Nalaman nina Plant at Noam na ang etniko/lahi na komposisyon ng mga miyembrong pumasa sa algorithm ay mas malapit na kahawig ng kabuuang populasyon noong pinili ang mga gumugol ng mas maraming araw sa isang shelter sa buong buhay nila.

Ang trabaho ng Beacon sa CT BHP ay nagpapatuloy, at isang halimbawa lamang ng mga hakbang na ginagawa namin upang mapabuti ang katarungan para sa mga mahihinang populasyon. Upang matuto nang higit pa tungkol kay Dr. Ang gawain ni Plant at Noam sa matagumpay na pag-alis ng bias mula sa mga algorithm, kabilang ang mga kapaki-pakinabang na gawin at hindi dapat gawin, ay gumawa ng mga plano na dumalo sa kanilang poster session sa pambansang kumperensya para sa National Council for Mental Wellbeing, NATCON 2022, sa Washington, DC noong Lunes, Abril 11. Kasama sa kanilang sesyon ang:

  • Isang maikling pagsusuri sa panitikan na nagsasalita sa pagkakaroon ng bias sa mga algorithm
  • Mga sukatan na karaniwang ginagamit upang tukuyin ang mga espesyalidad na populasyon na maaaring sumailalim sa pagpapasok ng bias
  • Paano subukan ang bias sa mga algorithm
  • Mga panganib na nauugnay sa ilang partikular na paraan ng pagpapagaan ng bias na maaaring ituring na diskriminasyon
  • Paano makatutulong ang pagsasama ng mga tagapagpahiwatig ng panlipunang determinant ng kalusugan upang mabawasan ang bias
  • Mga halimbawa ng totoong mundo ng mga algorithm na nagpapalaki at nagpapagaan ng bias sa pagpili ng kliyente o miyembro

[1] Obermeyer et al., Science 366, 447–453 (2019) Pag-dissect ng racial bias sa isang algorithm na ginagamit upang pamahalaan ang kalusugan ng mga populasyon

[2] NY Times Disyembre 7, 2020 – Kahit na Hindi Perpektong Algorithm ay Maaaring Pahusayin ang Criminal Justice System, at Pebrero 7, 2020 – Isang Algorithm na Nagbibigay ng Kalayaan, o Nag-aalis Dito

[3] Ang mga paghahabol ay hinila sa loob ng isang taon, na nagbibigay-daan para sa isang apat na buwang agwat, simula sa buwan na na-load ang data ng HMIS. Kinuha ang data anuman ang bilang ng mga araw na naging karapat-dapat ang miyembro para sa Medicaid sa taong iyon.


Walang komento

Mag-iwan ng Tugon

Ang iyong email address ay hindi mai-publish. Ang mga kinakailangang patlang ay minarkahan *
Ang mga komentong hindi naaangkop at / o hindi nauukol sa agarang paksa sa kamay ay hindi mai-publish.

Nangungunang Link
tlTagalog