然而,Anthropic 雖獲巨額青睞,卻也與美國國防部(五角大廈)陷入複雜爭議。五角大廈曾試圖將 Anthropic 列為「供應鏈風險」,並要求聯邦機構停止使用其 AI 工具,包含 Claude 聊天機器人。此舉源於 Anthropic 對其 AI 技術應用的嚴格限制,拒絕將其用於美國境內大規模監控或缺乏人為監督的自主武器系統。但美國加利福尼亞北區聯邦地區法院法官麗塔·F·藺(Rita Lin)已暫時阻止五角大廈的此項行動,質疑對一家美國本土公司施加如此嚴厲的標籤。
美國國防部長皮特·赫格塞斯(Pete Hegseth)已要求 Anthropic 在本週五前,放寬其 AI 模型 Claude 的軍事用途安全限制。若不配合,五角大廈將考慮取消其 2 億美元的合約,甚至可能援引《國防生產法》或重啟「供應鏈風險」標籤。Anthropic 執行長達里奧·阿莫代(Dario Amodei)已與赫格塞斯部長會面,強調公司深切關心國家安全,並討論了使用政策。值得注意的是,Claude 目前是唯一獲准在軍方最敏感機密系統中使用的 AI 模型,凸顯其技術的重要性。
Google 在投資競爭對手 Anthropic 的同時,其自身也擁有 Gemini 等強大 AI 模型,這種競合關係反映了當前 AI 產業的動態複雜性。巨頭們透過投資與合作,試圖在快速變化的 AI 格局中鞏固地位,同時也促使 AI 技術的發展與應用,與倫理、安全及國家戰略的討論同步並進。