根據巴黎高等商學院(HEC Paris)研究員達米安·夏洛丁(Damien Charlotin)的統計,截至目前,全球已有超過1,200起因使用AI生成錯誤資訊而遭法院懲處的案例,其中約800起發生在美國。華盛頓大學法學院(University of Washington School of Law)圖書館主任卡拉·韋爾(Carla Wale)指出,儘管AI倫理規範尚未完全確立,但律師的首要責任仍是確保其提交文件的準確性。
法律科技網站《Above the Law》資深編輯喬·派翠斯(Joe Patrice)肯定AI在證據審查、判例分析和合約處理上的效率,但也對「代理式」AI系統(Agentic AI systems)表達擔憂,認為這類系統試圖從頭到尾執行法律任務,可能導致人為監督的不足。他預測,AI工具將加速法律工作,挑戰傳統律師事務所按時計費的商業模式,促使律師轉向逐項計費。
值得關注的是,AI技術供應商也因此面臨法律訴訟。今年三月,日本生命美國公司(Nippon Life Insurance Company of America)在伊利諾州聯邦法院對ChatGPT開發商OpenAI提起訴訟,指控OpenAI因提供錯誤法律建議導致該保險公司面臨不必要的法律行動,等同於「無照執業」。OpenAI則回應稱該訴訟「毫無根據」。