Anthropic 聲稱,美國防部將其列為供應鏈風險,實際上是藉此懲罰該公司,因為 Anthropic 禁止其 AI 程式「Claude」被用於致命戰爭和大規模美國公民監控。這家公益公司表示,堅持這些政策是其對公眾承諾的一部分,並聲稱,被認定為供應鏈風險,將使其在政府和私人合約中損失數百萬美元。Anthropic 已要求法院宣告美國防部的認定為非法,並禁止政府執行。
訴狀中引述了前總統 Donald Trump 和國防部部長 Pete Hegseth 的貼文,這些貼文批評 Anthropic 未能改變其政策,並聲稱缺乏政策變更導致了供應鏈風險的認定。Hegseth 表示,政府應能將該技術用於所有合法目的,但他和國防部官員拒絕對此訴訟發表評論,理由是內部政策禁止評論正在進行的訴訟。
在美國政府與 Anthropic 發生爭端後,Anthropic 的競爭對手 OpenAI 與美國防部達成了一項新協議,向其提供 AI 技術。Anthropic 還在哥倫比亞特區美國上訴法院提起了另一起訴訟,以不同的程序方式對美國防部的認定提出質疑。