AI人工智慧技術日益成熟,但國立清華大學資工系助理教授郭柏志與麻省理工學院、哈佛大學跨國最新研究發現,當採用先進的AI深度學習演算法來判讀X光片及電腦斷層掃描時,電腦竟可辨別患者是黑人、白人或亞洲人,並會進一步影響判斷的準確率,將是醫療倫理上的一大隱憂。
清大指出,橫跨4國的跨國研究團隊同時也與史丹佛大學、多倫多大學等,與美國國家衛生院合作,分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,揭露人工智慧也有「歧視」問題的驚人真相。這項研究成果最近登上了國際頂尖期刊《刺胳針數位健康》(Lancet Digital Health),並吸引外媒的重視報導。
郭柏志說,醫界近年大量引進人工智慧,研發醫療機器人、智慧診療及醫學影像識別技術等,協助醫生更快速、準確地診斷,本該是造福病患的好事;但這項研究也揭露箇中隱憂,提醒人們應注意醫療倫理,並消弭引進人工智慧產生的醫療不平等現象。
美國食品藥物管理局(FDA)已核准醫院採用人工智慧輔助判讀X光片及電腦斷層掃描等醫學影像,人工智慧的深度學習系統可助電腦針對大量資料自我訓練,並發展出辨識模型。研究團隊發現,人類放射師無法從X光片判斷出患者的種族,但AI卻能輕易做到,且準確率高達9成。
團隊中一名哈佛大學教授表示,當團隊成員告訴他AI可以從X光片來判斷人種,他簡直不敢置信,認為「這真的太瘋狂」,一定是哪裡出錯了。當愈來愈多的證據浮現,有團隊成員則直言感覺很「恐怖」。
「實在想不出來AI是怎麼判讀出人種的?」郭柏志說,團隊原本猜想AI可能是從骨質密度來判斷人種,因黑人的骨質密度高於白人,但後來發現並非如此,從一張手掌的X光片,顯示AI判讀人種的重點聚焦在中指與食指的第三指節,但團隊裡也有二、三十年經驗的放射科醫師,也不解AI是如何從中判讀。