الگوریتم بهبود عدالت سلامت در یک زمان
داده ها و الگوریتم ها اغلب در صنعت مراقبت های بهداشتی برای شناسایی جمعیت هایی که ممکن است از مدیریت مراقبت های تخصصی بهره مند شوند، استفاده می شود. برنامههای مبتنی بر داده که از الگوریتمها استفاده میکنند میتوانند مدیریت بیماری، نتایج سلامتی و کاهش هزینههای مراقبت را بهبود بخشند. آنها همچنین این پتانسیل را دارند که هنگام دسترسی به مراقبت، سوگیری را از تصمیم گیری انسانی حذف کنند.
اما وقتی خود الگوریتم بایاس باشد چه اتفاقی می افتد؟ تحقیقات اخیر نشان داده است که الگوریتم ها در مراقبت های بهداشتی[1] و زمینه های دیگر[2] می تواند به دلیل نژادپرستی سیستماتیک که در داده های مورد استفاده برای ساخت این محاسبات مبتنی بر رایانه منعکس می شود، نسبت به جمعیت خاصی تعصب نشان دهد. به عنوان مثال، در مراقبت های بهداشتی، داده های مربوط به هزینه و استفاده از مراقبت اغلب به عنوان شاخصی از شدت مشکل استفاده می شود. با این حال، مطالعات نشان میدهد که سیاهپوستان، بومیها و رنگین پوستان (BIPOC) معمولاً با وجود داشتن وضعیت سلامتی مشابه، مراقبتهای بهداشتی را با نرخ پایینتری نسبت به سفیدپوستان غیر اسپانیایی مصرف میکنند.[3] در این مثال، اتکای بیش از حد به استفاده یا شاخصهای مبتنی بر هزینه میتواند با عدم شناخت مسائل بهداشتی در جمعیتهای BIPOC، تعصب را تداوم بخشد.
اخیرا، Beacon Health Options و Connecticut Behavioral Health Partnership (CT BHP) پروژه ای 14 ماهه را با هدف بهبود سلامت و رفاه دریافت کنندگان بی خانمان Medicaid با ارائه حمایت های مسکن و دسترسی به کوپن های مسکن با بودجه ایالتی آغاز کردند. اولین راه حل الگوریتم آنها آزمایش شد و یک سوگیری را نشان داد که افراد با قومیت اسپانیایی تبار را برای شرکت در برنامه خدمات حمایتی و مشارکت مسکن کانکتیکات (CHESS) کمتر انتخاب می کرد. تیم Beacon، به رهبری معاون تحلیل و نوآوری، دکتر رابرت پلانت و دانشمند تحقیقات سلامت، دکتر کریستا نوام، سپس شروع به توسعه یک الگوریتم جدید برای کاهش و بهبود عدالت کردند.
الگوریتم اولیه برای شطرنج از دادههای بستری در بیمارستان و سایر شاخصهای استفاده استفاده میکرد. بیکن دریافت که این الگوریتم سفیدپوستان غیر اسپانیایی را بیش از حد انتخاب کرده و افراد دارای میراث اسپانیایی را کمتر انتخاب کرده است. زمانی که صرفه جویی در هزینه ها لحاظ شد، سوگیری حتی بیشتر شد.
برای بهبود برابری، دانشمندان داده ما تمرکز خود را بر روی یک شاخص همبودی مبتنی بر تشخیص معطوف کردند، که برای پیشبینی اینکه چه کسی در سال آینده به طور جدی بیمار میشود یا میمیرد استفاده میشود. این رویکرد سوگیری را به میزان قابل توجهی کاهش داد اما به اندازه کافی نبود. Beacon دریافت که اسپانیایی ها هنوز به طور قابل توجهی کمتر برای گنجاندن برنامه انتخاب می شوند، که نشان می دهد تنظیمات دیگری در الگوریتم مورد نیاز است.
برای اطمینان از اینکه جمعیت انتخاب شده از طریق الگوریتم بیشتر شبیه کل جمعیتی است که بی خانمانی را تجربه کرده اند، تعداد روزهایی که یک عضو در طول زندگی خود در سرپناه گذرانده بود در نظر گرفته شد. با استفاده از این رویکرد، دکتر. پلانت و نوام دریافتند که ترکیب قومی/نژادی اعضایی که الگوریتم را گذراندهاند، بیشتر شبیه کل جمعیت است، زمانی که آنهایی که روزهای بیشتری را در سرپناه سپری کردهاند در طول زندگی خود انتخاب شدهاند.
کار Beacon با CT BHP ادامه دارد و تنها یک نمونه از گام هایی است که ما برای بهبود عدالت برای جمعیت های آسیب پذیر انجام می دهیم. برای کسب اطلاعات بیشتر در مورد Dr. کار پلانت و نوام در حذف موفقیتآمیز سوگیری از الگوریتمها، از جمله بایدها و نبایدهای مفید، برای شرکت در جلسه پوستر خود در کنفرانس ملی شورای ملی رفاه روانی برنامهریزی میکنند. NATCON 2022، در واشنگتن دی سی در روز دوشنبه، 11 آوریل. جلسه آنها شامل موارد زیر خواهد بود:
- مروری بر ادبیات مختصر که از وجود سوگیری در الگوریتمها صحبت میکند
- معیارهایی که معمولاً برای شناسایی جمعیت های تخصصی استفاده می شود که ممکن است در معرض تعصب باشند
- نحوه تست تعصب در الگوریتم ها
- خطرات مرتبط با روش های خاص کاهش سوگیری که می تواند تبعیض آمیز تلقی شود
- چگونه ترکیب شاخص های تعیین کننده های اجتماعی سلامت می تواند به کاهش سوگیری کمک کند
- نمونه های دنیای واقعی از الگوریتم هایی که تعصب در انتخاب مشتری یا عضو را بزرگ و کاهش می دهند
[1] Obermeyer و همکاران، Science 366، 447-453 (2019) تشریح تعصب نژادی در یک الگوریتم مورد استفاده برای مدیریت سلامت جمعیت ها
[2] نیویورک تایمز 7 دسامبر 2020 - حتی الگوریتمهای ناقص میتوانند سیستم عدالت کیفری را بهبود بخشند، و 7 فوریه 2020 - الگوریتمی که آزادی میدهد یا آن را از بین میبرد.
[3] ادعاها به مدت یک سال برداشته شدند، و از ماه بارگیری داده های HMIS شروع به یک فاصله چهار ماهه کرد. داده ها بدون توجه به تعداد روزهایی که عضو واجد شرایط Medicaid در آن سال بوده است، جمع آوری شد.
بدون نظر