Preconceito racial nas ferramentas de tomada de decisão em cuidados médicos

O viés racial nos cuidados médicos pode manifestar-se em lugares inesperados. Um exemplo: as ferramentas de decisão clínica que desempenham um papel importante na forma como os pacientes de hoje são testados, diagnosticados e tratados.

Estas ferramentas contêm algoritmos, ou procedimentos passo a passo, geralmente computadorizados, para calcular fatores como o risco de doenças cardíacas, a necessidade de uma radiografia de tórax e as dosagens de medicamentos prescritos. A inteligência artificial pode ser usada para vasculhar registos de saúde e sistemas de faturação para criar os conjuntos de dados necessários.

À primeira vista, pode parecer objetivo. Mas estudos têm mostrado que a análise de dados usada nestes algoritmos pode ser tendenciosa de formas cruciais contra certos grupos raciais e socioeconómicos. Isto pode ter inúmeras consequências em termos da quantidade e qualidade dos cuidados de saúde que estes grupos recebem.

Principais Conclusões

  • As ferramentas de decisão médica desempenham um papel importante na forma como os pacientes de hoje são testados, diagnosticados e tratados.
  • Infelizmente, os algoritmos em que estas ferramentas se baseiam podem, por vezes, ser tendenciosos.
  • Utilizar dados de gastos médicos para avaliar a condição de um paciente pode subestimar a gravidade das doenças de pacientes pobres e minoritários, quando menores gastos médicos refletem falta de acesso a cuidados médicos, e não uma menor necessidade.
  • O algoritmo de índice de massa corporal (IMC), usado para diagnosticar pacientes como com excesso de peso ou obesos, criou uma atmosfera de vergonha pelo peso e desconfiança entre pacientes e médicos, pois mais mulheres negras do que mulheres hispânicas ou brancas são agora categorizadas como obesas.
  • Os dados de entrada e os resultados estão agora a começar a ser verificados quanto a viés racial, étnico, de rendimento, de género e de idade, para que as disparidades possam ser reconhecidas e os algoritmos corrigidos.

Respostas do Investopedia

PERGUNTA

O Viés Racial Afeta os Pacientes Mais Doentes

Em 2019, um estudo de um algoritmo amplamente utilizado por hospitais e seguradoras nos EUA para alocar assistência adicional na gestão de saúde mostrou discriminar sistematicamente contra pessoas negras. A ferramenta de decisão tinha menos probabilidade de encaminhar pessoas negras do que brancas para programas de gestão de cuidados para necessidades médicas complexas, quando ambos os grupos raciais estavam igualmente doentes.

A razão subjacente ao viés estava relacionada à atribuição de pontuações de risco aos pacientes com base nos custos médicos do ano anterior. A suposição era que identificar pacientes com custos mais elevados identificaria aqueles com maiores necessidades médicas. No entanto, muitos pacientes negros têm menos acesso, menos capacidade de pagar e menos confiança nos cuidados médicos do que pessoas brancas igualmente doentes. Neste caso, os seus custos médicos mais baixos não previam com precisão o seu estado de saúde.

Os programas de gestão de cuidados usam uma abordagem de contato intensivo, como chamadas telefónicas, visitas domiciliárias por enfermeiros e priorização de consultas médicas para atender às necessidades complexas dos pacientes mais graves. Estes programas demonstraram melhorar os resultados, diminuir visitas às urgências e hospitalizações, e reduzir custos médicos. Como os próprios programas são caros, são atribuídos às pessoas com as pontuações de risco mais altas. Técnicas de pontuação que discriminam os pacientes negros mais doentes podem ser um fator importante no aumento do risco de morte por várias doenças.

A Cor Como Variável na Doença Renal

Algoritmos podem conter viés sem incluir a raça como variável, mas algumas ferramentas usam deliberadamente a raça como critério. Tome-se o escore eGFR, que avalia a saúde renal e é usado para determinar quem precisa de um transplante de rim.

Num estudo de 1999 que estabeleceu os critérios do escore eGFR, os investigadores notaram que as pessoas negras tinham, em média, níveis mais elevados de creatinina (um subproduto da degradação muscular) do que as brancas. Os cientistas assumiram que esses níveis mais altos se deviam a maior massa muscular nos negros. Assim, ajustaram a pontuação, o que basicamente significava que os negros tinham de ter uma pontuação eGFR mais baixa do que as brancas para serem diagnosticados com doença renal terminal. Como consequência, os negros tinham de esperar até que a sua doença renal atingisse um estágio mais grave para serem elegíveis para tratamento.

Em 2018, uma estudante de medicina e saúde pública da Universidade de Washington, em Seattle, observou que as pontuações eGFR não eram precisas para diagnosticar a gravidade da doença renal em pacientes negros. Ela lutou para remover a raça do algoritmo e venceu. Em 2020, a UW Medicine concordou que o uso da raça era uma variável ineficaz e que não atendia ao rigor científico em ferramentas de diagnóstico médico.

Importante

Em 2021, um grupo de trabalho conjunto da Fundação Nacional do Rim e da Sociedade Americana de Nefrologia recomendou a adoção de uma nova equação de creatinina CKD-EPI 2021 para o escore eGFR, que estima a função renal sem usar a raça como variável.

O IMC e o Viés Racial

Até mesmo a ferramenta de decisão médica mais simples, que não inclui a raça, pode refletir preconceitos sociais. O índice de massa corporal (IMC), por exemplo, baseia-se numa fórmula que multiplica o peso pela altura. É usado para identificar pacientes com peso insuficiente, excesso de peso e obesidade.

Em 1985, os Institutos Nacionais de Saúde (NIH) associaram a definição de obesidade ao IMC de um indivíduo, e em 1998, um painel de especialistas estabeleceu diretrizes baseadas no IMC que colocaram 29 milhões de americanos anteriormente classificados como peso normal ou apenas com excesso de peso na categoria de excesso de peso e obesidade.

Hoje, segundo os padrões do IMC, a maioria das pessoas negras, hispânicas e brancas está acima do peso ou obesa. Mas um relatório de 2021 dos Centros de Controlo e Prevenção de Doenças (CDC) revelou que a percentagem de americanos classificados como obesos varia consoante o grupo racial ou étnico.

Segundo o CDC, a divisão entre adultos em geral foi:

  • Não-Hispânico Negro: 49,9%
  • Hispânico: 45,6%
  • Não-Hispânico Branco: 41,4%
  • Não-Hispânico Asiático: 16,1%

Ao separar as mulheres adultas classificadas como obesas, as diferenças parecem ainda mais significativas.

  • Não-Hispânico Negro: 57,9%
  • Hispânico: 45,7%
  • Não-Hispânico Branco: 39,6%
  • Não-Hispânico Asiático: 14,5%

Classificar tamanhas percentagens de populações como com excesso de peso ou obesas criou uma atmosfera de vergonha pelo peso e desconfiança entre pacientes e médicos. Pessoas com peso mais elevado reclamam que os médicos não abordam os problemas de saúde ou preocupações que as trouxeram para uma consulta. Em vez disso, os médicos culpam o peso do paciente pelos seus problemas de saúde e promovem a perda de peso como solução. Isto leva muitos pacientes negros e hispânicos a evitar profissionais de saúde, perdendo assim oportunidades de prevenir problemas ou detectá-los precocemente.

Além disso, está cada vez mais claro que estar acima do peso ou obeso nem sempre é um problema de saúde. As taxas de algumas condições graves, como doenças cardíacas, AVC, diabetes tipo 2 e certos tipos de câncer, são mais elevadas entre os obesos. Mas, em certas situações, como na recuperação após cirurgia cardíaca, estar acima do peso ou moderadamente obeso (mas não morbidamente obeso) está associado a taxas de sobrevivência melhores.

Novas diretrizes de obesidade para clínicos canadenses, publicadas em agosto de 2020, enfatizam que os médicos devem deixar de confiar apenas no IMC para diagnosticar pacientes. As pessoas devem ser diagnosticadas como obesas apenas se o peso corporal afetar a saúde física ou o bem-estar mental, de acordo com as novas diretrizes. O tratamento deve ser holístico e não apenas focado na perda de peso. As diretrizes também observam que, “As pessoas que vivem com obesidade enfrentam preconceitos e estigma substanciais, que contribuem para um aumento da morbidade e mortalidade independentemente do peso ou do índice de massa corporal.”

A consideração do IMC de um indivíduo pode ser substituída por outras medidas, como a circunferência da cintura. E a obesidade pode ser redefinida. Em janeiro de 2025, um grupo de 58 investigadores propôs uma nova definição que mudaria o foco do IMC para a gordura corporal excessiva e o seu efeito na saúde. O grupo propôs duas categorias de obesidade: pré-clínica, quando o indivíduo tem excesso de gordura, mas os seus órgãos funcionam normalmente, e clínica, quando o excesso de gordura prejudica tecidos e órgãos.

Redução do Viés nas Ferramentas de Decisão

Os algoritmos médicos não são o único tipo de algoritmo que pode ser tendencioso. Como um artigo de 2020 na The New England Journal of Medicine observou, “Este problema não é exclusivo da medicina. O sistema de justiça criminal, por exemplo, usa ferramentas de previsão de reincidência para orientar decisões sobre valores de fiança e sentenças de prisão.” Os autores disseram que uma ferramenta amplamente usada, “embora não use raça per se, usa muitos fatores que correlacionam com raça e retorna pontuações de risco mais elevadas para réus negros.”

O uso crescente de inteligência artificial (IA)—especialmente aprendizagem automática—também levantou questões sobre viés baseado na raça, condição socioeconómica e outros fatores. Na saúde, a aprendizagem automática muitas vezes depende de registos eletrónicos de saúde. Pacientes pobres e minoritários podem receber cuidados fragmentados e ser atendidos em várias instituições. Têm mais probabilidade de serem atendidos em clínicas de ensino, onde a entrada de dados ou o raciocínio clínico podem ser menos precisos. E podem não conseguir aceder a portais de pacientes online ou documentar resultados. Como resultado, os registos destes pacientes podem conter dados ausentes ou incorretos. Os algoritmos que impulsionam a aprendizagem automática podem, assim, acabar por excluir pacientes pobres e minoritários dos conjuntos de dados e dos cuidados necessários.

A boa notícia é que a consciência sobre os vieses nos algoritmos de saúde cresceu nos últimos anos. Os dados de entrada e os resultados estão a ser verificados quanto a viés racial, étnico, de rendimento, de género e de idade. Sociedades de especialidades médicas nos EUA estão a reconhecer os danos causados pela medicina baseada na raça e a avançar para acabar com a consideração da raça nos algoritmos clínicos. Quando as disparidades são reconhecidas, os algoritmos e conjuntos de dados podem ser revistos para uma maior objetividade.

O Que É um Algoritmo?

Não há uma definição legal ou científica padrão para algoritmo, mas o Instituto Nacional de Padrões e Tecnologia (NIST) refere-se a ele como “Um processo matemático claramente especificado para cálculo; um conjunto de regras que, se seguidas, fornecerá um resultado prescrito.”

Um Exemplo de Algoritmo

No sentido mais amplo, um algoritmo é simplesmente um processo passo a passo para responder a uma questão ou alcançar um resultado desejado. Assim, por exemplo, uma receita de bolo é uma forma de algoritmo. No mundo das finanças, um sistema de negociação automatizado seria um exemplo.

O Que É Aprendizagem Automática?

A IBM, pioneira na área, define aprendizagem automática como “a subcategoria de inteligência artificial (IA) focada em algoritmos que podem ‘aprender’ os padrões dos dados de treino e, subsequentemente, fazer inferências precisas sobre novos dados.”

A Conclusão

Apesar da aparência de objetividade imparcial, os algoritmos que os profissionais de saúde usam para tomar certas decisões podem estar sujeitos a vieses baseados na raça, classe e outros fatores. Por essa razão, os algoritmos não podem ser simplesmente aceites sem questionar, devendo ser submetidos a uma análise rigorosa. Como observou um artigo de 2021 na MIT Technology Review, “O termo ‘algoritmo’, independentemente de como seja definido, não deve ser uma proteção para isentar os humanos que desenharam e implementaram qualquer sistema de responsabilidade pelas consequências do seu uso.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)