医療ケアにおける人種差別的偏見は、予想外の場所で現れることがあります。一例として、今日の患者の検査、診断、治療に重要な役割を果たす臨床意思決定ツールがあります。これらのツールには、心臓病のリスクや胸部X線の必要性、処方薬の用量などの要素を計算するためのアルゴリズムや段階的手順(通常はコンピュータ化されたもの)が含まれています。人工知能は、医療記録や請求システムを精査して必要なデータセットを作成するために利用されることがあります。表面上は客観的に聞こえるかもしれませんが、研究によると、これらのアルゴリズムで使用されるデータ分析は、特定の人種や社会経済的グループに対して重要な偏見を持つことがあります。これにより、これらのグループの人々が受ける医療の量や質にさまざまな影響が生じる可能性があります。### 重要なポイント* 医療意思決定ツールは、今日の患者の検査、診断、治療に大きな役割を果たしています。* 残念ながら、これらのツールが依存するアルゴリズムには偏見が含まれることがあります。* 医療費のデータを用いて個人の状態を評価する場合、医療費が少ないことが医療アクセスの不足を反映している場合、貧困層や少数民族の病気の重症度を誤って判断する可能性があります。* 体格指数(BMI)を用いた肥満や過体重の診断アルゴリズムは、患者と医師の間に体重に関する恥や不信感を生み出しています。現在、ヒスパニック系や白人女性よりも黒人女性の方が肥満と分類される割合が高くなっています。* 現在、データ入力や結果について、人種、民族、所得、性別、年齢に関する偏見がないかどうかの検査が始まっており、不平等を認識し、アルゴリズムの修正が進められています。### 投資解説質問人種差別は最も重篤な患者に影響を与える --------------------------------------------2019年、米国の病院や保険会社が広く使用しているアルゴリズムについての研究で、黒人に対して体系的に差別的な扱いをしていることが明らかになりました。この意思決定ツールは、両人種が同じ程度に病気であっても、複雑な医療ニーズに対するケア管理プログラムへの紹介を黒人よりも白人に対して行う可能性が低いことが判明しました。偏見の根本的な原因は、患者の過去1年の医療費に基づいてリスクスコアを割り当てるアルゴリズムにありました。高い医療費を持つ患者を特定することが、最も医療ニーズの高い患者を見つけることにつながると仮定していたのです。しかし、多くの黒人患者は、白人と同じ程度に病気であっても、医療へのアクセスや支払い能力、信頼度が低いため、医療費が少なくなる傾向があります。これにより、彼らの医療費の低さは、実際の健康状態を正確に反映していませんでした。ケア管理プログラムは、電話や看護師の訪問、医師の予約優先などの高接触アプローチを用いて、最も重篤な患者の複雑なニーズに対応します。これらのプログラムは、結果の改善、救急外来や入院の減少、医療費の削減に寄与していることが示されています。ただし、これらのプログラム自体が高額なため、最もリスクの高い患者に割り当てられます。これにより、黒人患者の中で最も重篤な状態の人々が適切なケアを受けられず、多くの疾患による死亡リスクが高まる可能性があります。腎臓疾患における人種の変数 ----------------------------------------アルゴリズムは、人種を変数に含めなくても偏見を持つことがありますが、一部のツールは意図的に人種を基準にしています。例えば、腎臓の健康状態を評価し、腎移植が必要かどうかを判断するeGFRスコアがあります。1999年の研究では、eGFRスコアの基準を設定した際、黒人は白人よりも平均的にクレアチニン(筋肉の分解産物)の値が高いことに気づきました。研究者は、これは黒人の筋肉量が多いためだと仮定し、スコアを調整しました。これにより、黒人は白人よりも低いeGFRスコアでなければ末期腎疾患と診断されず、治療の対象となるまで待つ必要がありました。2018年、ワシントン大学医学部の医学生と公衆衛生の学生は、eGFRスコアが黒人患者の腎疾患の重症度診断に正確でないことを指摘し、人種をアルゴリズムから除外するように働きかけ、成功しました。2020年、UWメディスンは、人種の使用は効果的な変数ではなく、医療診断ツールの科学的厳密さに欠けると認めました。### 重要2021年、米国腎臓学会と全米腎臓学会の合同タスクフォースは、人種を用いずに腎機能を推定する新しいeGFR 2021 CKD EPIクレアチニン方程式の採用を推奨しました。体格指数(BMI)と人種差別 -----------------------------------人種を含まない最も単純な医療決定ツールでさえ、社会的偏見を反映することがあります。例えば、BMIは体重と身長を掛け合わせて計算され、低体重、過体重、肥満の患者を識別します。1985年、米国国立衛生研究所は肥満の定義をBMIに結び付け、1998年にはBMIに基づくガイドラインを策定し、以前は標準体重またはやや過体重と分類されていた2,900万人のアメリカ人を過体重や肥満のカテゴリーに移しました。現在、BMI基準では、黒人、ヒスパニック系、白人の大多数が過体重または肥満と分類されています。しかし、2021年のCDCの報告によると、肥満と分類されるアメリカ人の割合は人種や民族グループによって異なります。CDCによると、成人全体の割合は次の通りです。* 非ヒスパニック系黒人:49.9%* ヒスパニック系:45.6%* 非ヒスパニック系白人:41.4%* 非ヒスパニック系アジア人:16.1%女性成人の肥満分類を分けると、差はさらに顕著になります。* 非ヒスパニック系黒人:57.9%* ヒスパニック系:45.7%* 非ヒスパニック系白人:39.6%* 非ヒスパニック系アジア人:14.5%こうした大規模な人口の過体重や肥満と分類されることは、体重に関する恥や不信感を生み出し、患者と医師の間に不信感をもたらしています。体重の重い人々は、医師が健康問題や懸念に十分に対応しないと不満を持ち、医師は体重を健康問題の原因とみなして減量を推奨します。これにより、多くの黒人やヒスパニック系の患者が医療従事者を避け、問題の予防や早期発見の機会を逃す可能性があります。さらに、肥満や過体重が必ずしも健康問題を意味しないことも次第に明らかになっています。心臓病、脳卒中、2型糖尿病、特定のがんなどの重篤な疾患のリスクは肥満者で高いですが、心臓手術後の回復など特定の状況では、過体重や中程度の肥満(重度肥満ではない場合)が生存率の向上と関連しています。2020年8月に発表されたカナダの医師向け新肥満ガイドラインは、医師がBMIだけに頼るのをやめるべきだと強調しています。新しいガイドラインによると、体重が身体の健康や精神的な健康に影響を与える場合にのみ、肥満と診断すべきとしています。治療は全人的なアプローチとし、単なる体重減少だけを目的としないことも示されています。さらに、「肥満の人々は偏見やスティグマに直面しており、それが体重やBMIに関係なく、罹患率や死亡率の増加に寄与している」とも述べられています。個人のBMIの代わりに、ウエスト周囲径など他の指標を用いることも検討されています。肥満の定義も再考されつつあり、2025年1月には、58人の研究者グループが、BMIから過剰な体脂肪とその健康への影響に焦点を移す新しい定義を提案しました。彼らは、肥満を「前臨床」(脂肪過剰だが臓器は正常に機能している状態)と「臨床」(脂肪過剰が組織や臓器に害を及ぼしている状態)の二つのカテゴリーに分けることを提案しています。偏見を減らすための意思決定ツールの改善 --------------------------------------------医療アルゴリズムだけが偏見を持つわけではありません。2020年の『ニューイングランドジャーナル・オブ・メディシン』の記事では、「この問題は医療だけに限定されません。例えば、刑事司法制度では、再犯予測ツールを用いて保釈金や刑期の決定を導いています」と述べています。著者たちは、広く使われているツールの一つが、「人種を直接使ってはいないが、多くの人種と相関する要素を用いており、黒人被告に対してより高いリスクスコアを返す」と指摘しています。人工知能(AI)、特に機械学習の普及も、人種や社会経済的背景に基づく偏見の問題を浮き彫りにしています。医療分野では、機械学習は電子カルテに依存することが多く、貧困層や少数民族の患者は断片的なケアを受け、複数の医療機関を渡り歩くことがあります。彼らは教育クリニックで診察されることが多く、データ入力や臨床判断の精度が低い場合もあります。また、オンライン患者ポータルにアクセスできず、結果を記録できないこともあります。その結果、これらの患者の記録には欠落や誤ったデータが含まれる可能性があり、これが機械学習のアルゴリズムにおいて、貧困層や少数民族の患者をデータセットから除外し、必要なケアを受けられなくなる原因となることがあります。良いニュースは、近年、医療アルゴリズムにおける偏見への認識が高まっていることです。データ入力や結果について、人種、民族、所得、性別、年齢に関する偏見の検査が進められています。米国の医療専門団体も、人種に基づく医療の害を認識し、臨床アルゴリズムから人種の考慮を排除しようと動いています。不平等が認識されると、アルゴリズムやデータセットはより客観的に修正されていきます。アルゴリズムとは何か? ---------------------アルゴリズムには法的・科学的な標準定義はありませんが、米国標準技術研究所(NIST)は、「計算のための明確に規定された数学的手順、または規則の集合であり、それに従えば所定の結果が得られるもの」と定義しています。アルゴリズムの例は何か? ---------------------最も広い意味では、アルゴリズムは質問に答えたり、望ましい結果を達成したりするための段階的な手順です。例えば、ケーキのレシピは一種のアルゴリズムです。金融の世界では、自動取引システムも例となります。機械学習とは何か? -------------------IBMは、機械学習を「人工知能(AI)の一分野であり、訓練データのパターンを学習し、その後、新しいデータについて正確な推論を行うことができるアルゴリズムに焦点を当てたもの」と定義しています。結論 -----医療従事者が意思決定に用いるアルゴリズムは、一見冷静で客観的に見えますが、人種や階級、その他の要因に基づく偏見を持つことがあります。そのため、アルゴリズムは単に信頼するのではなく、厳密な分析を経る必要があります。2021年のMITテクノロジーレビューの記事では、「『アルゴリズム』という用語は、定義に関わらず、設計・運用した人間の責任を免除する盾にはなり得ない」と指摘しています。
医療ケアの意思決定支援ツールにおける人種的偏見
医療ケアにおける人種差別的偏見は、予想外の場所で現れることがあります。一例として、今日の患者の検査、診断、治療に重要な役割を果たす臨床意思決定ツールがあります。
これらのツールには、心臓病のリスクや胸部X線の必要性、処方薬の用量などの要素を計算するためのアルゴリズムや段階的手順(通常はコンピュータ化されたもの)が含まれています。人工知能は、医療記録や請求システムを精査して必要なデータセットを作成するために利用されることがあります。
表面上は客観的に聞こえるかもしれませんが、研究によると、これらのアルゴリズムで使用されるデータ分析は、特定の人種や社会経済的グループに対して重要な偏見を持つことがあります。これにより、これらのグループの人々が受ける医療の量や質にさまざまな影響が生じる可能性があります。
重要なポイント
投資解説
質問
人種差別は最も重篤な患者に影響を与える
2019年、米国の病院や保険会社が広く使用しているアルゴリズムについての研究で、黒人に対して体系的に差別的な扱いをしていることが明らかになりました。この意思決定ツールは、両人種が同じ程度に病気であっても、複雑な医療ニーズに対するケア管理プログラムへの紹介を黒人よりも白人に対して行う可能性が低いことが判明しました。
偏見の根本的な原因は、患者の過去1年の医療費に基づいてリスクスコアを割り当てるアルゴリズムにありました。高い医療費を持つ患者を特定することが、最も医療ニーズの高い患者を見つけることにつながると仮定していたのです。しかし、多くの黒人患者は、白人と同じ程度に病気であっても、医療へのアクセスや支払い能力、信頼度が低いため、医療費が少なくなる傾向があります。これにより、彼らの医療費の低さは、実際の健康状態を正確に反映していませんでした。
ケア管理プログラムは、電話や看護師の訪問、医師の予約優先などの高接触アプローチを用いて、最も重篤な患者の複雑なニーズに対応します。これらのプログラムは、結果の改善、救急外来や入院の減少、医療費の削減に寄与していることが示されています。ただし、これらのプログラム自体が高額なため、最もリスクの高い患者に割り当てられます。これにより、黒人患者の中で最も重篤な状態の人々が適切なケアを受けられず、多くの疾患による死亡リスクが高まる可能性があります。
腎臓疾患における人種の変数
アルゴリズムは、人種を変数に含めなくても偏見を持つことがありますが、一部のツールは意図的に人種を基準にしています。例えば、腎臓の健康状態を評価し、腎移植が必要かどうかを判断するeGFRスコアがあります。
1999年の研究では、eGFRスコアの基準を設定した際、黒人は白人よりも平均的にクレアチニン(筋肉の分解産物)の値が高いことに気づきました。研究者は、これは黒人の筋肉量が多いためだと仮定し、スコアを調整しました。これにより、黒人は白人よりも低いeGFRスコアでなければ末期腎疾患と診断されず、治療の対象となるまで待つ必要がありました。
2018年、ワシントン大学医学部の医学生と公衆衛生の学生は、eGFRスコアが黒人患者の腎疾患の重症度診断に正確でないことを指摘し、人種をアルゴリズムから除外するように働きかけ、成功しました。2020年、UWメディスンは、人種の使用は効果的な変数ではなく、医療診断ツールの科学的厳密さに欠けると認めました。
重要
2021年、米国腎臓学会と全米腎臓学会の合同タスクフォースは、人種を用いずに腎機能を推定する新しいeGFR 2021 CKD EPIクレアチニン方程式の採用を推奨しました。
体格指数(BMI)と人種差別
人種を含まない最も単純な医療決定ツールでさえ、社会的偏見を反映することがあります。例えば、BMIは体重と身長を掛け合わせて計算され、低体重、過体重、肥満の患者を識別します。
1985年、米国国立衛生研究所は肥満の定義をBMIに結び付け、1998年にはBMIに基づくガイドラインを策定し、以前は標準体重またはやや過体重と分類されていた2,900万人のアメリカ人を過体重や肥満のカテゴリーに移しました。
現在、BMI基準では、黒人、ヒスパニック系、白人の大多数が過体重または肥満と分類されています。しかし、2021年のCDCの報告によると、肥満と分類されるアメリカ人の割合は人種や民族グループによって異なります。
CDCによると、成人全体の割合は次の通りです。
女性成人の肥満分類を分けると、差はさらに顕著になります。
こうした大規模な人口の過体重や肥満と分類されることは、体重に関する恥や不信感を生み出し、患者と医師の間に不信感をもたらしています。体重の重い人々は、医師が健康問題や懸念に十分に対応しないと不満を持ち、医師は体重を健康問題の原因とみなして減量を推奨します。これにより、多くの黒人やヒスパニック系の患者が医療従事者を避け、問題の予防や早期発見の機会を逃す可能性があります。
さらに、肥満や過体重が必ずしも健康問題を意味しないことも次第に明らかになっています。心臓病、脳卒中、2型糖尿病、特定のがんなどの重篤な疾患のリスクは肥満者で高いですが、心臓手術後の回復など特定の状況では、過体重や中程度の肥満(重度肥満ではない場合)が生存率の向上と関連しています。
2020年8月に発表されたカナダの医師向け新肥満ガイドラインは、医師がBMIだけに頼るのをやめるべきだと強調しています。新しいガイドラインによると、体重が身体の健康や精神的な健康に影響を与える場合にのみ、肥満と診断すべきとしています。治療は全人的なアプローチとし、単なる体重減少だけを目的としないことも示されています。さらに、「肥満の人々は偏見やスティグマに直面しており、それが体重やBMIに関係なく、罹患率や死亡率の増加に寄与している」とも述べられています。
個人のBMIの代わりに、ウエスト周囲径など他の指標を用いることも検討されています。肥満の定義も再考されつつあり、2025年1月には、58人の研究者グループが、BMIから過剰な体脂肪とその健康への影響に焦点を移す新しい定義を提案しました。彼らは、肥満を「前臨床」(脂肪過剰だが臓器は正常に機能している状態)と「臨床」(脂肪過剰が組織や臓器に害を及ぼしている状態)の二つのカテゴリーに分けることを提案しています。
偏見を減らすための意思決定ツールの改善
医療アルゴリズムだけが偏見を持つわけではありません。2020年の『ニューイングランドジャーナル・オブ・メディシン』の記事では、「この問題は医療だけに限定されません。例えば、刑事司法制度では、再犯予測ツールを用いて保釈金や刑期の決定を導いています」と述べています。著者たちは、広く使われているツールの一つが、「人種を直接使ってはいないが、多くの人種と相関する要素を用いており、黒人被告に対してより高いリスクスコアを返す」と指摘しています。
人工知能(AI)、特に機械学習の普及も、人種や社会経済的背景に基づく偏見の問題を浮き彫りにしています。医療分野では、機械学習は電子カルテに依存することが多く、貧困層や少数民族の患者は断片的なケアを受け、複数の医療機関を渡り歩くことがあります。彼らは教育クリニックで診察されることが多く、データ入力や臨床判断の精度が低い場合もあります。また、オンライン患者ポータルにアクセスできず、結果を記録できないこともあります。その結果、これらの患者の記録には欠落や誤ったデータが含まれる可能性があり、これが機械学習のアルゴリズムにおいて、貧困層や少数民族の患者をデータセットから除外し、必要なケアを受けられなくなる原因となることがあります。
良いニュースは、近年、医療アルゴリズムにおける偏見への認識が高まっていることです。データ入力や結果について、人種、民族、所得、性別、年齢に関する偏見の検査が進められています。米国の医療専門団体も、人種に基づく医療の害を認識し、臨床アルゴリズムから人種の考慮を排除しようと動いています。不平等が認識されると、アルゴリズムやデータセットはより客観的に修正されていきます。
アルゴリズムとは何か?
アルゴリズムには法的・科学的な標準定義はありませんが、米国標準技術研究所(NIST)は、「計算のための明確に規定された数学的手順、または規則の集合であり、それに従えば所定の結果が得られるもの」と定義しています。
アルゴリズムの例は何か?
最も広い意味では、アルゴリズムは質問に答えたり、望ましい結果を達成したりするための段階的な手順です。例えば、ケーキのレシピは一種のアルゴリズムです。金融の世界では、自動取引システムも例となります。
機械学習とは何か?
IBMは、機械学習を「人工知能(AI)の一分野であり、訓練データのパターンを学習し、その後、新しいデータについて正確な推論を行うことができるアルゴリズムに焦点を当てたもの」と定義しています。
結論
医療従事者が意思決定に用いるアルゴリズムは、一見冷静で客観的に見えますが、人種や階級、その他の要因に基づく偏見を持つことがあります。そのため、アルゴリズムは単に信頼するのではなく、厳密な分析を経る必要があります。2021年のMITテクノロジーレビューの記事では、「『アルゴリズム』という用語は、定義に関わらず、設計・運用した人間の責任を免除する盾にはなり得ない」と指摘しています。