紐約西奈山伊坎醫學院(Icahn School of Medicine at Mount Sinai)的研究指出,OpenAI推出的AI醫療工具ChatGPT Health在緊急醫療判斷上存在盲點,可能無法在部分嚴重案例中,給予使用者正確的就醫建議。這項研究已於2026年2月23日發表在《自然醫學》(Nature Medicine)期刊上。
這項研究是針對ChatGPT Health自2026年1月推出以來,首次進行的獨立安全性評估。研究人員發現,這款基於大型語言模型(LLM)的工具,在判斷自殺危機時也存在嚴重問題。哈佛醫學院生物醫學信息學系主任Isaac S. Kohane博士表示,大型語言模型已成為許多病患尋求醫療建議的第一站,但在臨床判斷上仍有不足,尤其是在需要精準判斷的緊急情況下。他強調,當數百萬人使用AI系統來決定是否需要緊急醫療照護時,風險非常高,因此獨立評估應是常態,而非選項。