[پرش به محتوا]

الگوریتم بهبود عدالت سلامت در یک زمان

داده ها و الگوریتم ها اغلب در صنعت مراقبت های بهداشتی برای شناسایی جمعیت هایی که ممکن است از مدیریت مراقبت های تخصصی بهره مند شوند، استفاده می شود. برنامه‌های مبتنی بر داده که از الگوریتم‌ها استفاده می‌کنند می‌توانند مدیریت بیماری، نتایج سلامتی و کاهش هزینه‌های مراقبت را بهبود بخشند. آنها همچنین این پتانسیل را دارند که هنگام دسترسی به مراقبت، سوگیری را از تصمیم گیری انسانی حذف کنند. 

اما وقتی خود الگوریتم بایاس باشد چه اتفاقی می افتد؟ تحقیقات اخیر نشان داده است که الگوریتم ها در مراقبت های بهداشتی[1] و زمینه های دیگر[2] می تواند به دلیل نژادپرستی سیستماتیک که در داده های مورد استفاده برای ساخت این محاسبات مبتنی بر رایانه منعکس می شود، نسبت به جمعیت خاصی تعصب نشان دهد. به عنوان مثال، در مراقبت های بهداشتی، داده های مربوط به هزینه و استفاده از مراقبت اغلب به عنوان شاخصی از شدت مشکل استفاده می شود. با این حال، مطالعات نشان می‌دهد که سیاه‌پوستان، بومی‌ها و رنگین پوستان (BIPOC) معمولاً با وجود داشتن وضعیت سلامتی مشابه، مراقبت‌های بهداشتی را با نرخ پایین‌تری نسبت به سفیدپوستان غیر اسپانیایی مصرف می‌کنند.[3] در این مثال، اتکای بیش از حد به استفاده یا شاخص‌های مبتنی بر هزینه می‌تواند با عدم شناخت مسائل بهداشتی در جمعیت‌های BIPOC، تعصب را تداوم بخشد.

اخیرا، Beacon Health Options و Connecticut Behavioral Health Partnership (CT BHP) پروژه ای 14 ماهه را با هدف بهبود سلامت و رفاه دریافت کنندگان بی خانمان Medicaid با ارائه حمایت های مسکن و دسترسی به کوپن های مسکن با بودجه ایالتی آغاز کردند. اولین راه حل الگوریتم آنها آزمایش شد و یک سوگیری را نشان داد که افراد با قومیت اسپانیایی تبار را برای شرکت در برنامه خدمات حمایتی و مشارکت مسکن کانکتیکات (CHESS) کمتر انتخاب می کرد. تیم Beacon، به رهبری معاون تحلیل و نوآوری، دکتر رابرت پلانت و دانشمند تحقیقات سلامت، دکتر کریستا نوام، سپس شروع به توسعه یک الگوریتم جدید برای کاهش و بهبود عدالت کردند.

الگوریتم اولیه برای شطرنج از داده‌های بستری در بیمارستان و سایر شاخص‌های استفاده استفاده می‌کرد. بیکن دریافت که این الگوریتم سفیدپوستان غیر اسپانیایی را بیش از حد انتخاب کرده و افراد دارای میراث اسپانیایی را کمتر انتخاب کرده است. زمانی که صرفه جویی در هزینه ها لحاظ شد، سوگیری حتی بیشتر شد. 

برای بهبود برابری، دانشمندان داده ما تمرکز خود را بر روی یک شاخص همبودی مبتنی بر تشخیص معطوف کردند، که برای پیش‌بینی اینکه چه کسی در سال آینده به طور جدی بیمار می‌شود یا می‌میرد استفاده می‌شود. این رویکرد سوگیری را به میزان قابل توجهی کاهش داد اما به اندازه کافی نبود. Beacon دریافت که اسپانیایی ها هنوز به طور قابل توجهی کمتر برای گنجاندن برنامه انتخاب می شوند، که نشان می دهد تنظیمات دیگری در الگوریتم مورد نیاز است.

برای اطمینان از اینکه جمعیت انتخاب شده از طریق الگوریتم بیشتر شبیه کل جمعیتی است که بی خانمانی را تجربه کرده اند، تعداد روزهایی که یک عضو در طول زندگی خود در سرپناه گذرانده بود در نظر گرفته شد. با استفاده از این رویکرد، دکتر. پلانت و نوام دریافتند که ترکیب قومی/نژادی اعضایی که الگوریتم را گذرانده‌اند، بیشتر شبیه کل جمعیت است، زمانی که آن‌هایی که روزهای بیشتری را در سرپناه سپری کرده‌اند در طول زندگی خود انتخاب شده‌اند.

کار Beacon با CT BHP ادامه دارد و تنها یک نمونه از گام هایی است که ما برای بهبود عدالت برای جمعیت های آسیب پذیر انجام می دهیم. برای کسب اطلاعات بیشتر در مورد Dr. کار پلانت و نوام در حذف موفقیت‌آمیز سوگیری از الگوریتم‌ها، از جمله بایدها و نبایدهای مفید، برای شرکت در جلسه پوستر خود در کنفرانس ملی شورای ملی رفاه روانی برنامه‌ریزی می‌کنند. NATCON 2022، در واشنگتن دی سی در روز دوشنبه، 11 آوریل. جلسه آنها شامل موارد زیر خواهد بود:

  • مروری بر ادبیات مختصر که از وجود سوگیری در الگوریتم‌ها صحبت می‌کند
  • معیارهایی که معمولاً برای شناسایی جمعیت های تخصصی استفاده می شود که ممکن است در معرض تعصب باشند
  • نحوه تست تعصب در الگوریتم ها
  • خطرات مرتبط با روش های خاص کاهش سوگیری که می تواند تبعیض آمیز تلقی شود
  • چگونه ترکیب شاخص های تعیین کننده های اجتماعی سلامت می تواند به کاهش سوگیری کمک کند
  • نمونه های دنیای واقعی از الگوریتم هایی که تعصب در انتخاب مشتری یا عضو را بزرگ و کاهش می دهند

[1] Obermeyer و همکاران، Science 366، 447-453 (2019) تشریح تعصب نژادی در یک الگوریتم مورد استفاده برای مدیریت سلامت جمعیت ها

[2] نیویورک تایمز 7 دسامبر 2020 - حتی الگوریتم‌های ناقص می‌توانند سیستم عدالت کیفری را بهبود بخشند، و 7 فوریه 2020 - الگوریتمی که آزادی می‌دهد یا آن را از بین می‌برد.

[3] ادعاها به مدت یک سال برداشته شدند، و از ماه بارگیری داده های HMIS شروع به یک فاصله چهار ماهه کرد. داده ها بدون توجه به تعداد روزهایی که عضو واجد شرایط Medicaid در آن سال بوده است، جمع آوری شد.


بدون نظر

دیدگاهتان را بنویسید

آدرس ایمیل شما منتشر نخواهد شد. قسمتهای مورد نیاز علامت گذاری شده اند *
نظراتی که نامناسب هستند و یا مربوط به موضوع فوری نیستند منتشر نمی شوند.

لینک برتر
fa_IRفارسی