《The National Law Review》報導指出,當談判對象使用AI工具時,專業人士應建立共同的事實基礎。若遇到AI生成的內容,建議可直接詢問對方是否使用了AI,以確保透明度。此外,給予意見反饋時提供足夠的背景資訊至關重要,因為AI的輸出內容受其接收的指令與訓練資料限制。當預期談判對象會使用AI工具時,可透過自行運用AI或諮詢律師來預判可能的回應,藉此管理期望。
隨著AI在法律領域的應用,專為法律推理設計的AI模型,其效能表現受到關注。《The National Law Review》近期發布的報告顯示,專為法律推理打造的AI系統DescrybeLM,在法律推理基準測試中,表現超越了ChatGPT、Claude及Gemini等通用型AI模型。DescrybeLM成功答對了美國律師執照考試(Bar Exam)的全部200道題目,而其他通用型AI模型則分別答錯13至23題,在法律推理品質上分數較低。
報告進一步分析,通用型AI模型在答錯題目時常會「自信地出錯」。在52個錯誤輸出中,有49個提供了自信且結構良好的推理,卻未顯示任何不確定性。這些錯誤的主要模式是應用了錯誤的法律標準,或誤用了正確的標準,但文字敘述讀起來卻像是專業分析。例如,Claude Opus 4.5 和 Gemini 3 Pro 在正確與錯誤的輸出中都表現出過度自信的語氣,而DescrybeLM和ChatGPT 5.2則未出現此現象。