美國西奈山伊坎醫學院(Icahn School of Medicine at Mount Sinai)的研究指出,廣泛使用的消費者人工智慧(AI)工具 ChatGPT Health 在判斷醫療緊急情況時,可能無法正確引導使用者。這項研究已於2026年2月23日發表在《自然醫學》(Nature Medicine)期刊網路版上。
研究團隊針對 ChatGPT Health 進行了首次獨立安全評估,發現其在自殺危機處理方面存在嚴重問題。哈佛醫學院生物醫學信息學系主任 Isaac S. Kohane 博士表示,AI 系統在臨床判斷上仍存在風險,尤其是在需要準確判斷緊急程度的情況下。他強調,當數百萬人使用 AI 系統來決定是否需要緊急醫療照護時,獨立評估應該是常態。
OpenAI 報告指出,ChatGPT Health 推出後數週內,每天約有 4,000 萬人使用該工具尋求健康資訊和指導,包含判斷是否需要緊急醫療照護。然而,研究人員表示,當時缺乏關於其建議安全性和可靠性的獨立證據。
研究發現,雖然 ChatGPT Health 通常能正確處理明確的緊急情況,但在醫師判斷需要緊急照護的案例中,超過一半的案例被判斷為不需要緊急處理。此外,該系統在緊急醫療案例中的失效也引起了研究人員的關注。該工具經常在自己的解釋中識別出危險的徵兆,但仍然讓患者放心。
在自殺風險警報方面,ChatGPT Health 的設計目標是在高風險情況下將使用者引導至 988 防自殺生命線。然而,研究人員發現,這些警報出現的情況並不一致,有時在較低風險的情況下會觸發,但在使用者描述了具體的自殘計畫時,反而沒有出現警報。西奈山醫療系統人工智慧長 Girish N. Nadkarni 醫學博士表示,這種情況特別令人驚訝和擔憂。他指出,當有人確切地說出他們將如何傷害自己時,這是一個更直接和嚴重的危險信號,但系統的警報卻與臨床風險成反比。