Sesgo racial en las herramientas de toma de decisiones en la atención médica

El sesgo racial en la atención médica puede manifestarse en lugares inesperados. Un ejemplo: las herramientas de decisión clínica que desempeñan un papel importante en cómo se prueban, diagnostican y tratan los pacientes de hoy.

Estas herramientas contienen algoritmos, o procedimientos paso a paso, generalmente informatizados, para calcular factores como el riesgo de enfermedad cardíaca, la necesidad de una radiografía de tórax y las dosis de medicamentos recetados. La inteligencia artificial puede ser utilizada para escudriñar registros de salud y sistemas de facturación para crear los conjuntos de datos necesarios.

En apariencia, puede parecer objetivo. Pero estudios han demostrado que el análisis de datos utilizado en estos algoritmos puede estar sesgado de manera crucial contra ciertos grupos raciales y socioeconómicos. Esto puede tener innumerables consecuencias en términos de la cantidad y calidad de la atención médica que reciben estos grupos.

Puntos clave

  • Las herramientas de decisión médica juegan un papel importante en cómo se prueban, diagnostican y tratan los pacientes de hoy.
  • Lamentablemente, los algoritmos en los que estas herramientas se basan pueden estar sesgados en ocasiones.
  • Utilizar datos de gasto médico para evaluar la condición de un paciente puede subestimar la gravedad de las enfermedades de pacientes pobres y minoritarios cuando un menor gasto médico refleja falta de acceso a la atención médica, en lugar de una menor necesidad.
  • El algoritmo de índice de masa corporal (IMC) utilizado para diagnosticar a pacientes como con sobrepeso u obesos ha creado un ambiente de vergüenza por el peso y desconfianza entre pacientes y médicos, ya que más mujeres negras que hispanas o blancas son clasificadas como obesas.
  • Ahora se empieza a revisar que los datos de entrada y los resultados no tengan sesgos raciales, étnicos, de ingresos, género o edad, para poder reconocer disparidades y corregir los algoritmos.

Respuestas de Investopedia

PREGUNTA

El sesgo racial afecta a los pacientes más enfermos

En 2019, un estudio de un algoritmo ampliamente utilizado por hospitales y aseguradoras en EE. UU. para asignar asistencia adicional en gestión de la salud mostró discriminar sistemáticamente contra las personas negras. La herramienta de decisión era menos propensa a remitir a las personas negras que a las blancas a programas de gestión de atención para necesidades médicas complejas, cuando ambos grupos raciales estaban igualmente enfermos.

La causa subyacente del sesgo estaba relacionada con la asignación de puntajes de riesgo a los pacientes basada en los costos médicos del año anterior. La suposición era que identificar a los pacientes con mayores costos identificaría a quienes tenían mayores necesidades médicas. Sin embargo, muchos pacientes negros tienen menos acceso, menos capacidad de pagar y menos confianza en la atención médica que las personas blancas que están igualmente enfermas. En este caso, sus costos médicos más bajos no predicen con precisión su estado de salud.

Los programas de gestión de atención utilizan un enfoque cercano, como llamadas telefónicas, visitas domiciliarias por enfermeros y priorización de citas médicas para atender las necesidades complejas de los pacientes más graves. Se ha demostrado que estos programas mejoran los resultados, reducen visitas a urgencias y hospitalizaciones, y disminuyen los costos médicos. Debido a que los programas son costosos, se asignan a las personas con los puntajes de riesgo más altos. Las técnicas de puntuación que discriminan a los pacientes negros más enfermos para este cuidado pueden ser un factor importante en su mayor riesgo de muerte por muchas enfermedades.

La raza como variable en la enfermedad renal

Los algoritmos pueden contener sesgos sin incluir la raza como variable, pero algunas herramientas deliberadamente usan la raza como criterio. Tomemos el puntaje eGFR, que evalúa la salud renal y se usa para determinar quién necesita un trasplante de riñón.

En un estudio de 1999 que estableció los criterios del puntaje eGFR, los investigadores notaron que las personas negras tenían, en promedio, niveles más altos de creatinina (un subproducto de la descomposición muscular) que las blancas. Los científicos asumieron que los niveles más altos se debían a mayor masa muscular en las negras. Por ello, ajustaron la puntuación, lo que básicamente significaba que las personas negras debían tener un puntaje eGFR más bajo que las blancas para ser diagnosticadas con enfermedad renal en etapa terminal. Como resultado, las negras tenían que esperar hasta que su enfermedad renal alcanzara una etapa más severa para calificar para tratamiento.

En 2018, una estudiante de medicina y salud pública de la Universidad de Washington en Seattle observó que los puntajes eGFR no eran precisos para diagnosticar la gravedad de la enfermedad renal en pacientes negros. Luchó para eliminar la raza del algoritmo y ganó. En 2020, UW Medicine aceptó que el uso de la raza era una variable ineficaz y que no cumplía con el rigor científico en las herramientas de diagnóstico médico.

Importante

En 2021, un grupo de trabajo conjunto de la Fundación Nacional del Riñón y la Sociedad Americana de Nefrología recomendó adoptar una nueva ecuación de creatinina CKD-EPI 2021 para eGFR, que estima la función renal sin usar la raza como variable.

Índice de masa corporal y sesgo racial

Incluso la herramienta de decisión médica más simple que no incluye la raza puede reflejar sesgos sociales. El índice de masa corporal (IMC), por ejemplo, se basa en un cálculo que multiplica el peso por la altura. Se usa para identificar pacientes con peso insuficiente, sobrepeso y obesidad.

En 1985, los Institutos Nacionales de Salud vincularon la definición de obesidad al IMC de una persona, y en 1998, un panel de expertos estableció directrices basadas en el IMC que movieron a 29 millones de estadounidenses previamente clasificados como peso normal o simplemente con sobrepeso a las categorías de sobrepeso y obesidad.

Hoy en día, según los estándares del IMC, la mayoría de las personas negras, hispanas y blancas están en sobrepeso u obesas. Pero un informe de 2021 de los Centros para el Control y la Prevención de Enfermedades (CDC) encontró que el porcentaje de estadounidenses que podrían clasificarse como obesos varía según el grupo racial o étnico.

Según el CDC, la distribución entre adultos en general fue:

  • No hispano negro: 49.9%
  • Hispano: 45.6%
  • No hispano blanco: 41.4%
  • No hispano asiático: 16.1%

Al desglosar a las mujeres adultas clasificadas como obesas, las diferencias parecen aún más significativas.

  • No hispano negro: 57.9%
  • Hispano: 45.7%
  • No hispano blanco: 39.6%
  • No hispano asiático: 14.5%

Etiquetar a porcentajes tan altos de poblaciones como con sobrepeso u obesas ha creado un ambiente de vergüenza por el peso y desconfianza entre pacientes y médicos. Las personas con mayor peso se quejan de que los médicos no abordan los problemas de salud o preocupaciones que los llevaron a la consulta. En cambio, los médicos culpan al peso del paciente por sus problemas de salud y promueven la pérdida de peso como solución. Esto contribuye a que muchos pacientes negros e hispanos eviten a los profesionales de la salud y, por tanto, quizás pierdan oportunidades para prevenir problemas o detectarlos temprano.

Además, cada vez es más evidente que estar con sobrepeso u obeso no siempre es un problema de salud. Las tasas de algunas condiciones graves, como enfermedad cardíaca, accidente cerebrovascular, diabetes tipo 2 y ciertos tipos de cáncer, son mayores entre quienes son obesos. Pero en ciertas situaciones, como la recuperación tras una cirugía cardíaca, estar con sobrepeso u obesidad moderada (pero no mórbida) se asocia con mejores tasas de supervivencia.

Las nuevas directrices sobre obesidad para clínicos canadienses, publicadas en agosto de 2020, enfatizan que los médicos deben dejar de confiar únicamente en el IMC para diagnosticar a los pacientes. Las personas deben ser diagnosticadas como obesas solo si su peso corporal afecta su salud física o bienestar mental, según las nuevas directrices. El tratamiento debe ser integral y no solo centrado en la pérdida de peso. Las directrices también señalan que, “Las personas que viven con obesidad enfrentan un sesgo y estigma sustanciales, que contribuyen a un aumento de morbilidad y mortalidad independientemente del peso o índice de masa corporal.”

La consideración del IMC de un individuo puede ser reemplazada por otras medidas, como la circunferencia de la cintura. Y la obesidad misma puede ser redefinida. En enero de 2025, un grupo de 58 investigadores propuso una nueva definición que desplazará el enfoque del IMC a la grasa corporal excesiva y su efecto en la salud. El grupo propuso dos categorías de obesidad: preclínica, cuando una persona tiene exceso de grasa pero sus órganos funcionan normalmente, y clínica, cuando demasiado grasa está dañando tejidos y órganos.

Reducción del sesgo en las herramientas de decisión

Los algoritmos médicos no son el único tipo de algoritmo que puede estar sesgado. Como señaló un artículo de 2020 en The New England Journal of Medicine, “Este problema no es exclusivo de la medicina. El sistema de justicia penal, por ejemplo, utiliza herramientas de predicción de reincidencia para guiar decisiones sobre montos de fianza y sentencias de prisión.” Los autores dijeron que una herramienta ampliamente utilizada, “aunque no usa la raza per se, emplea muchos factores que se correlacionan con la raza y devuelve puntajes de riesgo más altos para los acusados negros.”

El uso creciente de inteligencia artificial (IA), en particular el aprendizaje automático, también ha planteado preguntas sobre sesgos basados en raza, estatus socioeconómico y otros factores. En la atención médica, el aprendizaje automático a menudo depende de registros electrónicos de salud. Los pacientes pobres y minoritarios pueden recibir atención fragmentada y ser atendidos en múltiples instituciones. Es más probable que sean atendidos en clínicas docentes donde la entrada de datos o el razonamiento clínico puedan ser menos precisos. Y pueden no tener acceso a portales en línea para pacientes y documentar resultados. Como resultado, los registros de estos pacientes pueden tener datos faltantes o erróneos. Los algoritmos que impulsan el aprendizaje automático pueden terminar excluyendo a pacientes pobres y minoritarios de los conjuntos de datos y de la atención necesaria.

La buena noticia es que la conciencia sobre los sesgos en los algoritmos de atención médica ha crecido en los últimos años. Se están revisando los datos de entrada y los resultados en busca de sesgos raciales, étnicos, de ingresos, género y edad. Las sociedades especializadas en medicina en EE. UU. están reconociendo los daños causados por la medicina basada en la raza y avanzando para eliminar la consideración de la raza en los algoritmos clínicos. Cuando se reconocen disparidades, los algoritmos y conjuntos de datos pueden ser revisados para lograr mayor objetividad.

¿Qué es un algoritmo?

No existe una definición legal o científica estándar para algoritmo, pero el Instituto Nacional de Estándares y Tecnología lo describe como “Un proceso matemático claramente especificado para el cálculo; un conjunto de reglas que, si se siguen, darán un resultado prescrito.”

¿Un ejemplo de algoritmo?

En el sentido más amplio, un algoritmo es simplemente un proceso paso a paso para responder a una pregunta o lograr un resultado deseado. Por ejemplo, una receta de pastel es una forma de algoritmo. En el mundo financiero, un sistema de comercio automatizado sería un ejemplo.

¿Qué es el aprendizaje automático?

IBM, pionero en el campo, define el aprendizaje automático como “el subconjunto de la inteligencia artificial (IA) enfocado en algoritmos que pueden ‘aprender’ los patrones de los datos de entrenamiento y, posteriormente, hacer inferencias precisas sobre nuevos datos.”

La conclusión

A pesar de su apariencia de objetividad imparcial, los algoritmos que utilizan los profesionales médicos para tomar ciertas decisiones pueden ser propensos a sesgos basados en raza, clase y otros factores. Por esa razón, los algoritmos no pueden ser aceptados ciegamente, sino que deben someterse a un análisis riguroso. Como señaló un artículo de 2021 en MIT Technology Review, “El término ‘algoritmo’, sea como sea definido, no debería ser una excusa para eximir a los humanos que diseñaron y desplegaron cualquier sistema de responsabilidad por las consecuencias de su uso.”

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)