根據《MIT Technology Review》報導,相較於過去的 AI 技術,例如阿富汗戰爭時期用於篩檢監控畫面、辨識機槍卡車的演算法,新一代的對話式 AI 系統更進一步,開始承擔為決策者提供建議的角色。烏克蘭已開發出利用 AI 進行自主導航的無人機,而以色列則部署 AI 系統從情報數據中識別潛在目標。
值得注意的是,AI 公司 Anthropic 開發的 Claude 模型已深度整合至美軍的作戰行動中。儘管美方已將 Anthropic 列為供應鏈風險,美國政府仍坦承,若要移除 Claude,預計將耗費長達六個月的時間。喬治城大學安全與新興科技中心(Center for Security and Emerging Technology)的分析也指出,中國軍方同樣在開發類似的 AI 輔助建議工具。
然而,AI 在軍事應用上仍存在顯著挑戰。生成式 AI 的輸出具有變異性,其提供的建議不總是實用、精確或正確,需要使用者仔細驗證。軍事專家警告,在高壓情境下,特別是需要快速決定目標時,軍事人員可能會在驗證 AI 輸出時便宜行事,導致誤判。此外,對 AI 系統的過度依賴,可能使軍官忽視複雜的戰場數據,或讓科技公司對資訊傳播產生不當影響力。
目前,大眾對於軍方使用 AI 及其潛在錯誤缺乏有效的監督與審查機制。五角大廈(Pentagon)一份一月份的備忘錄甚至將「負責的 AI」(responsible AI)形容為「烏托邦式的理想主義」。儘管如此,OpenAI 等 AI 公司仍積極爭取有利可圖的國防合約。五角大廈也計畫允許企業利用機密軍事數據訓練新的 AI 模型,這可能帶來將敏感情報納入模型本身的新安全風險。