[Перейти к содержанию]

Улучшение справедливости в отношении здоровья по одному алгоритму за раз

Данные и алгоритмы часто используются в отрасли здравоохранения для выявления групп населения, которым может быть полезно специализированное лечение. Программы, основанные на данных, которые используют алгоритмы, могут улучшить лечение заболеваний, улучшить результаты в отношении здоровья и снизить стоимость лечения. Они также могут устранить предвзятость при принятии человеком решений, когда речь идет о доступе к медицинской помощи. 

Но что происходит, когда сам алгоритм необъективен? Недавние исследования показали, что алгоритмы в здравоохранении[1] и другие поля[2] могут демонстрировать предвзятое отношение к определенным группам населения из-за системного расизма, что отражено в данных, используемых для построения этих компьютерных расчетов. Например, в здравоохранении данные о стоимости и использовании медицинской помощи часто используются как показатель серьезности проблемы. Однако исследования показывают, что чернокожие, коренные и цветные люди (BIPOC) обычно потребляют меньше медицинских услуг, чем белые неиспаноязычные, несмотря на то, что у них одинаковое состояние здоровья.[3] В этом примере чрезмерная зависимость от показателей использования или затрат может увековечить предвзятость из-за недооценки проблем со здоровьем у населения BIPOC.

Недавно Beacon Health Options и Connecticut Behavioral Health Partnership (CT BHP) приступили к реализации 14-месячного проекта, направленного на улучшение здоровья и благополучия бездомных получателей Medicaid путем предоставления жилищных субсидий и доступа к финансируемым государством жилищным ваучерам. Их первое алгоритмическое решение было протестировано и выявило предвзятость, из-за которой лица латиноамериканского происхождения были недостаточно отобраны для участия в программе жилищного взаимодействия и поддержки штата Коннектикут (CHESS). Затем команда Beacon под руководством старшего вице-президента по аналитике и инновациям доктора Роберта Планта и научного сотрудника в области здравоохранения доктора Кристы Ноам приступила к разработке нового алгоритма для смягчения последствий и улучшения справедливости.

Первоначальный алгоритм CHESS использовал данные о пребывании в стационаре и другие показатели использования. Бикон обнаружил, что этот алгоритм перевыбирает белых неиспаноязычных людей и недовыбирает людей с латиноамериканским происхождением. Смещение стало еще больше, когда была включена экономия затрат. 

Чтобы улучшить справедливость, наши специалисты по данным переключили свое внимание на индекс сопутствующих заболеваний на основе диагноза, который используется для прогнозирования того, кто с наибольшей вероятностью серьезно заболеет или умрет в следующем году. Этот подход значительно уменьшил предвзятость, но не совсем достаточно. Бикон обнаружил, что латиноамериканцы по-прежнему значительно реже выбираются для включения в программу, что указывает на необходимость других корректировок алгоритма.

Чтобы убедиться, что население, выбранное с помощью алгоритма, более похоже на общее количество бездомных, было включено количество дней, которые участник провел в приюте на протяжении всей своей жизни. Используя этот подход, Др. Плант и Ноам обнаружили, что этнический/расовый состав участников, прошедших алгоритм, больше напоминал общую численность населения, когда были отобраны те, кто провел больше дней в приюте на протяжении всей своей жизни.

Работа Beacon с CT BHP продолжается, и это лишь один из примеров успехов, которые мы предпринимаем для улучшения справедливости для уязвимых групп населения. Чтобы узнать больше о Drs. Работа Планта и Ноама по успешному устранению предвзятости из алгоритмов, включая полезные советы и запреты, планируют посетить их постерную сессию на национальной конференции Национального совета по психическому благополучию, НАТКОН 2022, в Вашингтоне, округ Колумбия, в понедельник, 11 апреля. Их сессия будет включать в себя:

  • Краткий обзор литературы, говорящий о наличии предвзятости в алгоритмах
  • Показатели, обычно используемые для выявления специализированных групп населения, которые могут быть подвержены систематической ошибке
  • Как проверить смещение в алгоритмах
  • Риски, связанные с некоторыми методами устранения предубеждений, которые могут рассматриваться как дискриминационные
  • Как включение показателей социальных детерминант здоровья может помочь смягчить предвзятость
  • Реальные примеры алгоритмов, которые увеличивают и уменьшают предвзятость при выборе клиентов или участников

[1] Obermeyer et al., Science 366, 447–453 (2019) Анализ расовых предубеждений в алгоритме, используемом для управления здоровьем населения.

[2] NY Times, 7 декабря 2020 г. — Даже несовершенные алгоритмы могут улучшить систему уголовного правосудия, и 7 февраля 2020 г. — Алгоритм, который дарует свободу или отнимает ее

[3] Претензии были отозваны на один год с учетом четырехмесячного перерыва, начиная с месяца загрузки данных ИСУЗ. Данные извлекались независимо от количества дней, в течение которых участник имел право на участие в программе Medicaid в течение этого года.


Нет комментариев

Добавить комментарий

Ваш электронный адрес не будет опубликован. Необходимые поля отмечены *
Комментарии, которые неуместны и / или не относятся к рассматриваемой теме, не будут опубликованы.

Верхняя ссылка
ru_RUРусский