[Przejdź do treści]

Poprawa równości w zdrowiu jeden algorytm na raz

Dane i algorytmy są często wykorzystywane w branży opieki zdrowotnej do identyfikacji populacji, które mogą skorzystać na zarządzaniu opieką specjalistyczną. Programy oparte na danych, które wykorzystują algorytmy, mogą poprawić zarządzanie chorobami, wyniki zdrowotne i obniżyć koszty opieki. Mają również potencjał, aby usunąć uprzedzenia z ludzkiego procesu decyzyjnego, jeśli chodzi o dostęp do opieki. 

Ale co się dzieje, gdy sam algorytm jest stronniczy? Ostatnie badania wykazały, że algorytmy w opiece zdrowotnej[1] i inne pola[2] może wykazywać stronniczość wobec niektórych populacji z powodu rasizmu systemowego, co znajduje odzwierciedlenie w danych użytych do skonstruowania tych obliczeń komputerowych. Na przykład w opiece zdrowotnej dane dotyczące kosztów i wykorzystania opieki są często wykorzystywane jako wskaźnik nasilenia problemu. Jednak badania pokazują, że osoby czarne, tubylcze i kolorowe (BIPOC) zazwyczaj korzystają z opieki zdrowotnej w niższym tempie niż osoby niebędące Latynosami, mimo że mają podobny stan zdrowia.[3] W tym przykładzie nadmierne poleganie na wskaźnikach wykorzystania lub kosztach może utrwalać błąd poprzez niedostrzeganie problemów zdrowotnych w populacjach BIPOC.

Niedawno Beacon Health Options i Connecticut Behavioural Health Partnership (CT BHP) rozpoczęły 14-miesięczny projekt mający na celu poprawę zdrowia i dobrostanu bezdomnych odbiorców Medicaid poprzez zapewnienie wsparcia mieszkaniowego i dostęp do finansowanych przez państwo bonów mieszkaniowych. Ich pierwsze rozwiązanie algorytmowe zostało przetestowane i ujawniło błąd, który spowodowałby niedobór osób pochodzenia latynoskiego do udziału w programie Connecticut Housing Engagement and Support Services (CHESS). Zespół Beacon, kierowany przez starszego wiceprezesa ds. analityki i innowacji, dr. Roberta naukowca zajmującego się badaniami roślin i zdrowia, dr. Kristę Noam, postanowił następnie opracować nowy algorytm, aby złagodzić i poprawić sprawiedliwość.

Wstępny algorytm CHESS wykorzystywał dane dotyczące hospitalizacji w szpitalu i inne wskaźniki wykorzystania. Beacon odkrył, że ten algorytm nadmiernie selekcjonował nie-latynoskich białych i niedostatecznie selekcjonował osoby z latynoskim dziedzictwem. Tendencja wzrosła jeszcze bardziej, gdy uwzględniono oszczędności kosztów. 

Aby poprawić sprawiedliwość, nasi naukowcy zajmujący się danymi skupili się na wskaźniku współwystępowania opartym na diagnozie, który służy do przewidywania, kto najprawdopodobniej poważnie zachoruje lub umrze w nadchodzącym roku. Takie podejście znacznie zmniejszyło stronniczość, ale nie w wystarczającym stopniu. Beacon stwierdził, że Latynosi wciąż znacznie rzadziej wybierani są do włączenia do programu, co wskazuje, że potrzebne są inne poprawki w algorytmie.

Aby zapewnić, że populacja wybrana za pomocą algorytmu bardziej przypomina całkowitą populację doświadczającą bezdomności, uwzględniono liczbę dni, które członek spędził w schronisku przez całe życie. Wykorzystując to podejście, dr. Plant i Noam odkryli, że skład etniczny/rasowy członków przechodzących algorytm bardziej przypominał całkowitą populację, gdy wybrano tych, którzy spędzali więcej dni w schronisku przez całe życie.

Współpraca Beacon z CT BHP trwa i jest to tylko jeden z przykładów kroków, które podejmujemy w celu poprawy równości dla wrażliwych populacji. Aby dowiedzieć się więcej o dr. Prace Plant i Noama nad skutecznym usuwaniem uprzedzeń z algorytmów, w tym pomocnych nakazów i zakazów, planują wziąć udział w ich sesji plakatowej na krajowej konferencji National Council for Mental Wellbeing, NATKON 2022, w Waszyngtonie w poniedziałek 11 kwietnia. Ich sesja obejmie:

  • Krótki przegląd literatury mówiący o występowaniu stronniczości w algorytmach
  • Mierniki powszechnie używane do identyfikacji populacji specjalistycznych, które mogą podlegać wprowadzeniu błędu
  • Jak testować błędy w algorytmach
  • Ryzyko związane z niektórymi metodami łagodzenia uprzedzeń, które można uznać za dyskryminujące
  • Jak włączenie wskaźników społecznych determinantów zdrowia może pomóc w łagodzeniu uprzedzeń
  • Przykłady algorytmów ze świata rzeczywistego, które wzmacniają i łagodzą uprzedzenia w doborze klientów lub członków

[1] Obermeyer i in., Science 366, 447–453 (2019) Analiza uprzedzeń rasowych w algorytmie stosowanym do zarządzania zdrowiem populacji

[2] NY Times 7 grudnia 2020 r. – Nawet niedoskonałe algorytmy mogą usprawnić wymiar sprawiedliwości w sprawach karnych i 7 lutego 2020 r. – Algorytm, który zapewnia wolność lub ją odbiera

[3] Roszczenia zostały wyciągnięte przez jeden rok, co pozwoliło na czteromiesięczną przerwę, począwszy od miesiąca, w którym wczytano dane HMIS. Dane były pobierane niezależnie od liczby dni, przez które członek kwalifikował się do Medicaid w ciągu tego roku.


Bez komentarza

Dodaj komentarz

Twoj adres e-mail nie bedzie opublikowany. Wymagane pola są zaznaczone *
Komentarze, które są nieodpowiednie i / lub nie dotyczą bieżącego tematu, nie zostaną opublikowane.

Górny link
pl_PLPolski