根據《紐約時報》(New York Times)報導,史丹佛大學(Stanford University)生物安全專家大衛·A·雷爾曼(David Relman)指出,該AI模型的回應「陰險狡詐到令人不寒而慄」,甚至回答了他未曾想到的問題。儘管這家匿名公司在研究人員的建議下,對聊天機器人進行了一些安全調整,但雷爾曼認為這些措施仍顯不足。
一份由美國政府資助的蘭德公司(RAND Corporation)於2025年發布的報告曾指出,2024年問世的前瞻AI模型「能夠顯著助長生物武器的發展」,透過引導非專業人士完成病原體的製造與攻擊過程,涵蓋「多種病毒」。然而, Anthropic 公司負責信任、安全政策與執行的主管 Alex Sanderford 強調,模型生成看似合理文本與提供實際行動所需資訊之間存在巨大差異。OpenAI 發言人則表示,此類專家壓力測試並未「顯著增加任何人造成現實危害的能力」。