隨著人工智慧(AI)技術快速融入法律實務,全球法律專業人士正以前所未有的速度採用AI工具進行文書草擬、資訊分析、摘要與組織工作。根據《湯森路透》2025年報告,約半數法律專業人員已使用生成式AI,法律組織內部使用量更較前一年幾乎翻倍;然而,一份來自 8am Legal Industry Report 的調查指出,69%的法律專業人士使用通用生成式AI工具,卻有高達54%的律師事務所未提供AI培訓,43%更缺乏AI治理政策,凸顯出技術應用與倫理規範之間日益擴大的鴻溝。
法律界對AI的依賴日益增加,卻也伴隨「AI幻覺」(hallucination)的風險。截至2026年4月29日,Damien Charlotin 的AI幻覺案例資料庫已記錄美國919起、全球逾1356起生成式AI幻覺案例,導致法律文件引用虛假判例、捏造事實等嚴重後果。如「Johnson v. Dunn」一案中,就因提交的簡報包含AI生成的虛假證據而受到制裁,顯示單純的政策或訓練不足以確保嚴謹的執行。美國資深法官 Hon. Ralph Artigliere (ret.) 強調,專業能力不應僅依賴記憶,而應由完善的系統在壓力下協助執行,這與航空業透過檢查表機制提升飛行安全的概念不謀而合。