Biais racial dans les outils de prise de décision en soins médicaux

Les biais raciaux dans les soins médicaux peuvent apparaître dans des endroits inattendus. Un exemple : les outils de décision clinique qui jouent un rôle important dans la façon dont les patients d’aujourd’hui sont testés, diagnostiqués et traités.

Ces outils contiennent des algorithmes, ou des procédures étape par étape, généralement informatisés, pour calculer des facteurs tels que le risque de maladie cardiaque, la nécessité d’une radiographie thoracique et les dosages de médicaments sur ordonnance. L’intelligence artificielle peut être utilisée pour analyser les dossiers de santé et les systèmes de facturation afin de créer les ensembles de données nécessaires.

En surface, cela peut sembler objectif. Mais des études ont montré que l’analyse des données utilisée dans ces algorithmes peut être biaisée de manière cruciale contre certains groupes raciaux et socioéconomiques. Cela peut avoir de multiples conséquences en termes de quantité et de qualité des soins de santé que reçoivent ces groupes.

Points clés

  • Les outils de décision médicale jouent un rôle important dans la façon dont les patients d’aujourd’hui sont testés, diagnostiqués et traités.
  • Malheureusement, les algorithmes sur lesquels ces outils se basent peuvent parfois être biaisés.
  • Utiliser les données de dépense médicale pour évaluer l’état de santé d’une personne peut sous-estimer la gravité des maladies chez les patients pauvres et issus de minorités lorsque des dépenses médicales plus faibles reflètent un manque d’accès aux soins plutôt qu’un manque de besoin.
  • L’algorithme d’indice de masse corporelle (IMC), utilisé pour diagnostiquer les patients comme en surpoids ou obèses, a créé une atmosphère de stigmatisation du poids et de méfiance entre patients et médecins, car plus de femmes noires que hispaniques ou blanches sont désormais classées comme obèses.
  • La saisie des données et les résultats commencent désormais à être vérifiés pour détecter les biais raciaux, ethniques, liés au revenu, au genre et à l’âge, afin de reconnaître les disparités et de corriger les algorithmes.

Réponses d’Investopedia

QUESTION

Le biais racial affecte les patients les plus malades

En 2019, une étude sur un algorithme largement utilisé par les hôpitaux et assureurs américains pour allouer une assistance supplémentaire en gestion de la santé a montré qu’il discriminait systématiquement contre les personnes noires. L’outil de décision était moins susceptible de référer les personnes noires que les personnes blanches à des programmes de gestion des soins pour des besoins médicaux complexes, alors que les deux groupes raciaux étaient également malades.

La raison sous-jacente de ce biais était liée à l’attribution de scores de risque aux patients en fonction de leurs coûts médicaux de l’année précédente. L’hypothèse était que l’identification des patients avec des coûts plus élevés permettrait d’identifier ceux ayant les plus grands besoins médicaux. Cependant, de nombreux patients noirs ont moins accès aux soins, moins la capacité de payer et moins confiance dans le système médical que les personnes blanches également malades. Dans ce cas, leurs coûts médicaux plus faibles ne prédisaient pas précisément leur état de santé.

Les programmes de gestion des soins utilisent une approche intensive, comme des appels téléphoniques, des visites à domicile par des infirmiers, et la priorité donnée aux rendez-vous chez le médecin pour répondre aux besoins complexes des patients les plus malades. Il a été démontré que ces programmes améliorent les résultats, réduisent les visites aux urgences et les hospitalisations, et diminuent les coûts médicaux. Étant donné que ces programmes sont coûteux, ils sont attribués aux personnes avec les scores de risque les plus élevés. Les techniques de scoring qui discriminent contre les patients noirs les plus malades pour ces soins peuvent être un facteur important de leur risque accru de décès par de nombreuses maladies.

La race comme variable dans la maladie rénale

Les algorithmes peuvent contenir des biais sans inclure la race comme variable, mais certains outils utilisent délibérément la race comme critère. Prenons le score eGFR, qui évalue la santé rénale et est utilisé pour déterminer qui a besoin d’une transplantation rénale.

Dans une étude de 1999 qui a défini les critères du score eGFR, les chercheurs ont remarqué que les personnes noires avaient, en moyenne, des niveaux plus élevés de créatinine (un sous-produit de la dégradation musculaire) que les personnes blanches. Les scientifiques ont supposé que ces niveaux plus élevés étaient dus à une masse musculaire plus importante chez les Noirs. Ils ont donc ajusté le score, ce qui signifiait essentiellement que les personnes noires devaient avoir un score eGFR plus bas que les Blancs pour être diagnostiquées en stade terminal de la maladie rénale. En conséquence, les Noirs devaient attendre que leur maladie rénale atteigne un stade plus avancé pour pouvoir bénéficier d’un traitement.

En 2018, une étudiante en médecine et en santé publique de l’Université de Washington à Seattle a observé que les scores eGFR n’étaient pas précis pour diagnostiquer la gravité de la maladie rénale chez les patients noirs. Elle a mené une lutte pour faire supprimer la race de l’algorithme et a gagné. En 2020, UW Medicine a reconnu que l’utilisation de la race était une variable inefficace et ne répondait pas aux critères de rigueur scientifique dans les outils de diagnostic médical.

Important

En 2021, un groupe de travail conjoint de la National Kidney Foundation et de l’American Society of Nephrology a recommandé l’adoption d’une nouvelle formule eGFR CKD EPI de 2021, qui estime la fonction rénale sans utiliser la race comme variable.

L’indice de masse corporelle et le biais racial

Même le plus simple des outils de décision médicale qui n’inclut pas la race peut refléter un biais social. Par exemple, l’indice de masse corporelle (IMC) est basé sur un calcul qui multiplie le poids par la taille. Il est utilisé pour identifier les patients en sous-poids, en surpoids ou obèses.

En 1985, les National Institutes of Health ont lié la définition de l’obésité à l’IMC d’un individu, et en 1998, un panel d’experts a établi des lignes directrices basées sur l’IMC qui ont fait passer 29 millions d’Américains auparavant classés comme poids normal ou juste en surpoids dans les catégories surpoids et obésité.

Aujourd’hui, selon les normes de l’IMC, la majorité des personnes noires, hispaniques et blanches sont en surpoids ou obèses. Mais un rapport de 2021 des Centers for Disease Control and Prevention (CDC) a révélé que le pourcentage d’Américains pouvant être classés comme obèses varie selon le groupe racial ou ethnique.

Selon le CDC, la répartition chez les adultes en général était :

  • Non-Hispaniques Noirs : 49,9%
  • Hispaniques : 45,6%
  • Non-Hispaniques Blancs : 41,4%
  • Non-Hispaniques Asiatiques : 16,1%

En isolant les femmes adultes classées comme obèses, les différences semblent encore plus importantes.

  • Non-Hispaniques Noirs : 57,9%
  • Hispaniques : 45,7%
  • Non-Hispaniques Blancs : 39,6%
  • Non-Hispaniques Asiatiques : 14,5%

Classer une si grande proportion de populations comme en surpoids ou obèses a créé une atmosphère de stigmatisation du poids et de méfiance entre patients et médecins. Les personnes en surpoids se plaignent que les médecins ne traitent pas les problèmes de santé ou préoccupations qui les ont amenés pour un bilan. Au lieu de cela, les médecins blâment le poids du patient pour ses problèmes de santé et prônent la perte de poids comme solution. Cela contribue à ce que de nombreux patients noirs et hispaniques évitent les praticiens de santé, risquant ainsi de manquer des opportunités de prévention ou de détection précoce.

De plus, il devient de plus en plus évident que le fait d’être en surpoids ou obèse n’est pas toujours un problème de santé. Les taux de certaines maladies graves, comme les maladies cardiaques, les AVC, le diabète de type 2 et certains cancers, sont plus élevés chez les personnes obèses. Mais dans certaines situations, comme la récupération après une chirurgie cardiaque, être en surpoids ou modérément obèse (mais pas en obésité morbide) est associé à de meilleurs taux de survie.

De nouvelles lignes directrices sur l’obésité pour les cliniciens canadiens, publiées en août 2020, soulignent que les médecins doivent cesser de se baser uniquement sur l’IMC pour diagnostiquer les patients. Les personnes devraient être diagnostiquées comme obèses uniquement si leur poids affecte leur santé physique ou mentale, selon ces nouvelles lignes directrices. Le traitement doit être holistique et ne pas se limiter à la perte de poids. Les lignes directrices notent également que « les personnes vivant avec l’obésité font face à un biais et à une stigmatisation importants, ce qui contribue à une morbidité et une mortalité accrues, indépendamment du poids ou de l’indice de masse corporelle. »

La prise en compte de l’IMC d’un individu peut être remplacée par d’autres mesures, comme le tour de taille. Et l’obésité elle-même pourrait être redéfinie. En janvier 2025, un groupe de 58 chercheurs a proposé une nouvelle définition qui déplacerait l’accent du IMC vers l’excès de graisse corporelle et son impact sur la santé. Le groupe a proposé deux catégories d’obésité : préclinique, lorsque l’individu a un excès de graisse mais que ses organes fonctionnent normalement, et clinique, lorsque trop de graisse nuit aux tissus et aux organes.

Réduire les biais dans les outils de décision

Les algorithmes médicaux ne sont pas le seul type d’algorithme susceptible d’être biaisé. Comme le notait un article de 2020 dans The New England Journal of Medicine, « ce problème n’est pas propre à la médecine. Le système de justice pénale, par exemple, utilise des outils de prédiction de récidive pour orienter les décisions concernant le montant de la caution et les sentences de prison. » Les auteurs ont indiqué qu’un outil largement utilisé, « tout en ne utilisant pas la race en soi, utilise de nombreux facteurs qui y sont corrélés et renvoie des scores de risque plus élevés pour les accusés noirs. »

L’utilisation croissante de l’intelligence artificielle (IA)—en particulier l’apprentissage automatique—a également soulevé des questions sur les biais liés à la race, au statut socioéconomique et à d’autres facteurs. En santé, l’apprentissage automatique repose souvent sur des dossiers de santé électroniques. Les patients pauvres et issus de minorités peuvent recevoir des soins fragmentés et être vus dans plusieurs établissements. Ils sont plus susceptibles d’être pris en charge dans des cliniques d’enseignement où la saisie des données ou le raisonnement clinique peuvent être moins précis. Et ils peuvent ne pas avoir accès aux portails patients en ligne ou documenter leurs résultats. En conséquence, les dossiers de ces patients peuvent contenir des données manquantes ou erronées. Les algorithmes qui alimentent l’apprentissage automatique peuvent ainsi finir par exclure ces patients pauvres et issus de minorités des ensembles de données et des soins nécessaires.

La bonne nouvelle, c’est que la conscience des biais dans les algorithmes de santé a augmenté ces dernières années. La saisie des données et les résultats sont vérifiés pour détecter les biais raciaux, ethniques, liés au revenu, au genre et à l’âge. Les sociétés savantes en médecine aux États-Unis reconnaissent les dommages causés par la médecine basée sur la race et s’efforcent de mettre fin à la prise en compte de la race dans les algorithmes cliniques. Lorsque des disparités sont identifiées, les algorithmes et les ensembles de données peuvent être révisés pour une meilleure objectivité.

Qu’est-ce qu’un algorithme ?

Il n’existe pas de définition légale ou scientifique standard pour un algorithme, mais l’Institut national des normes et de la technologie (NIST) le décrit comme « un processus mathématique clairement spécifié pour le calcul ; un ensemble de règles qui, si elles sont suivies, donneront un résultat prescrit. »

Quel est un exemple d’algorithme ?

Dans le sens le plus large, un algorithme est simplement un processus étape par étape pour répondre à une question ou atteindre un résultat souhaité. Par exemple, une recette de gâteau est une forme d’algorithme. Dans le monde de la finance, un système de trading automatisé en est un exemple.

Qu’est-ce que l’apprentissage automatique ?

IBM, pionnier dans le domaine, le définit comme « le sous-ensemble de l’intelligence artificielle (IA) axé sur des algorithmes capables d’« apprendre » les modèles des données d’entraînement et, par la suite, de faire des inférences précises sur de nouvelles données. »

Le mot de la fin

Malgré leur apparence d’objectivité impartiale, les algorithmes que les professionnels de la santé utilisent pour prendre certaines décisions peuvent être sujets à des biais liés à la race, à la classe sociale et à d’autres facteurs. Pour cette raison, les algorithmes ne peuvent pas simplement être acceptés sans question, mais doivent faire l’objet d’une analyse rigoureuse. Comme le notait un article de 2021 dans MIT Technology Review, « Le terme ‘algorithme’, quelle que soit sa définition, ne devrait pas être une excuse pour exonérer les humains qui ont conçu et déployé un système de leur responsabilité quant aux conséquences de son utilisation. »

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)