醫療照護決策工具中的種族偏見

醫療照護中的種族偏見可能在一些意想不到的地方展現出來。一個例子是:在當今患者接受測試、診斷和治療的過程中扮演重要角色的臨床決策工具。

這些工具包含演算法,或是逐步操作流程,通常是電腦化的,用來計算如心臟疾病風險、胸部X光需求以及處方藥劑量等因素。人工智慧可以用來搜尋健康記錄和帳單系統,以建立所需的資料集。

表面上,這聽起來可能是客觀的。但研究已顯示,這些演算法所使用的資料分析在關鍵方面可能對某些種族和社會經濟群體存在偏見。這可能在醫療服務的數量和品質方面產生多種後果。

主要重點

  • 醫療決策工具在當今患者的測試、診斷和治療中扮演重要角色。
  • 不幸的是,這些工具所依賴的演算法有時可能存在偏見。
  • 使用醫療支出資料來評估個人健康狀況,可能會誤判貧困和少數族裔患者的疾病嚴重程度,因為較低的醫療支出反映的是醫療資源不足而非實際需求。
  • 用於診斷患者是否超重或肥胖的身體質量指數(BMI)演算法,已造成體重羞辱和患者與醫生之間的不信任氛圍,因為現在有更多黑人女性被歸類為肥胖,超過西班牙裔或白人女性。
  • 現在開始檢查資料輸入和結果是否存在種族、族裔、收入、性別和年齡偏見,以便識別差異並修正演算法。

Investopedia 解答

詢問

種族偏見影響最重病患

2019年,一項針對美國醫院和保險公司廣泛使用的演算法的研究顯示,該演算法系統性地歧視黑人。當兩個種族群體病情相當時,該決策工具較少將黑人轉介至複雜醫療需求的照護管理計畫。

偏見的根本原因與演算法根據前一年的醫療費用來評估風險分數有關。假設是較高的醫療費用能識別出需求較大的患者,但許多黑人患者因較少醫療資源、較低支付能力和較少信任醫療系統,而導致其醫療費用較低,並未準確反映其健康狀況。

照護管理計畫採用高接觸方式,例如電話聯絡、護士家訪和優先安排醫生門診,以應對最嚴重患者的複雜需求。這些計畫已被證明能改善結果、降低急診和住院次數,以及降低醫療費用。由於這些計畫本身成本較高,會分配給風險分數較高的人群。對黑人患者的偏見評分可能是他們較高死亡風險的重要因素。

種族作為腎臟疾病變數

演算法可以在不將種族列為變數的情況下存在偏見,但有些工具會故意將種族作為判斷標準。例如,用來評估腎臟健康狀況並決定是否需要腎臟移植的eGFR分數。

1999年一項研究設定了eGFR的標準,發現黑人平均肌酐(肌肉分解產物)水平高於白人。科學家認為這是由於黑人肌肉較多,因此調整了評分,基本上意味著黑人必須有較低的eGFR分數才能被診斷為末期腎病。結果,黑人必須等到腎臟疾病更嚴重時才能符合治療資格。

2018年,華盛頓大學醫學院的醫學與公共衛生學生觀察到,eGFR分數在診斷黑人腎病嚴重程度時不準確。她努力爭取將種族從演算法中移除,並成功了。2020年,華盛頓大學醫學院同意,種族的使用是無效的變數,且不符合醫學診斷工具的科學嚴謹性。

重要

2021年,美國腎臟基金會與美國腎臟學會聯合工作小組建議採用新的eGFR 2021 CKD EPI肌酐方程式,該公式在估算腎功能時不使用種族作為變數。

身體質量指數與種族偏見

即使是不包含種族的最簡單醫療決策工具,也可能反映社會偏見。例如,身體質量指數(BMI)是基於體重乘以身高的計算,用來識別體重過輕、過重和肥胖的患者。

1985年,美國國家衛生研究院將肥胖定義與BMI掛鉤,1998年,一個專家小組制定了基於BMI的指南,將之前被歸類為正常體重或輕度超重的2,900萬美國人歸入超重和肥胖類別。

如今,根據BMI標準,大多數黑人、西班牙裔和白人都屬於超重或肥胖。但根據疾病控制與預防中心(CDC)2021年的報告,不同種族或族裔群體中,可能被歸類為肥胖的比例不同。

CDC的數據顯示,成人的比例為:

  • 非西班牙裔黑人:49.9%
  • 西班牙裔:45.6%
  • 非西班牙裔白人:41.4%
  • 非西班牙裔亞洲人:16.1%

若細分為女性成人,差異更為明顯:

  • 非西班牙裔黑人:57.9%
  • 西班牙裔:45.7%
  • 非西班牙裔白人:39.6%
  • 非西班牙裔亞洲人:14.5%

將如此大量的人口標籤為超重或肥胖,已造成體重羞辱和患者與醫生之間的不信任氛圍。較重的患者抱怨醫生不會處理他們來就診的健康問題或疑慮,而是將問題歸咎於體重,並推動減重作為解決方案。這使得許多黑人和西班牙裔患者避免就醫,可能因此錯失預防或早期發現問題的機會。

此外,越來越清楚的是,超重或肥胖並不一定是健康問題。有些嚴重疾病如心臟病、中風、2型糖尿病和某些癌症的發病率在肥胖者中較高,但在某些情況下,例如心臟手術後的康復,超重或中度肥胖(非病態肥胖)反而與較佳的存活率相關。

加拿大醫師於2020年8月公布的新肥胖指南強調,醫生應停止僅依賴BMI來診斷患者。新指南指出,只有當體重影響身體健康或心理福祉時,才應診斷為肥胖。治療應採取整體性方法,而非僅針對體重減輕。指南亦指出,“肥胖者面臨大量偏見和污名,這會增加疾病和死亡率,與體重或BMI無關。”

對個人BMI的考量可能會被其他指標取代,例如腰圍。而肥胖本身也可能重新定義。2025年1月,一組58位研究人員提出一個新定義,將焦點從BMI轉向過多的體脂肪及其對健康的影響。該團隊提出兩個肥胖分類:前臨床型,指個體脂肪過多,但器官功能正常;臨床型,指脂肪過多已損害組織和器官。

降低決策工具偏見

醫療演算法並非唯一可能存在偏見的演算法。如《新英格蘭醫學雜誌》2020年的一篇文章指出,“這個問題不僅限於醫學。例如,刑事司法系統使用再犯預測工具來指導保釋金額和監禁判決。”作者表示,一個廣泛使用的工具“雖然不直接使用種族,但使用許多與種族相關的因素,並對黑人被告給予較高的風險評分。”

人工智慧(AI)——尤其是機器學習的日益普及,也引發了關於種族、社會經濟地位和其他因素偏見的問題。在醫療領域,機器學習常依賴電子健康記錄。貧困和少數族裔患者可能接受碎片化的照護,並在多個機構就診。他們更可能在教學診所就診,資料輸入或臨床推理可能較不準確,也可能無法存取線上病人門戶或記錄結果。因此,這些患者的記錄可能存在缺漏或錯誤資料。驅動機器學習的演算法可能因此排除貧困和少數族裔患者的資料,影響所需的照護。

好消息是,過去幾年來,對醫療演算法偏見的認識逐漸提高。資料輸入和結果正被檢查是否存在種族、族裔、收入、性別和年齡偏見。美國的醫學專科協會也開始認識到基於種族的醫學所造成的傷害,並朝著終止在臨床演算法中考慮種族的方向努力。當差異被識別出來,演算法和資料集可以修正,以達到更客觀的結果。

什麼是演算法?

沒有一個標準的法律或科學定義,但國家標準與技術研究院(NIST)將其描述為“明確規定的數學計算過程;一套規則,遵循後會得到預定的結果。”

什麼是演算法的範例?

在最廣義的意義上,演算法就是一個逐步解答問題或達成目標的流程。例如,蛋糕食譜就是一種演算法。在金融界,自動交易系統也是一個例子。

什麼是機器學習?

IBM,該領域的先驅,將機器學習定義為“人工智慧(AI)的一個子集,專注於能‘學習’訓練資料中的模式,並隨後對新資料做出準確推論的演算法。”

底線

儘管看起來客觀冷峻,醫療專業人員用來做出某些決策的演算法,可能會受到種族、階級和其他因素的偏見影響。因此,不能僅憑相信演算法,而必須進行嚴格的分析。正如MIT科技評論2021年所指出,“不論‘演算法’的定義如何,它都不應成為免責的藥方,讓設計和部署系統的人免於對其使用後果負責。”

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)