這些對話揭示,公開可用的AI模型能描述如何獲取基因物質、組裝危險病原體,甚至在公共場所散佈生物製劑並規避偵測。專家指出,雖然發生大規模生物攻擊的可能性仍低,但AI技術可能會降低具備科學訓練或惡意意圖人士的門檻。史丹佛大學微生物學家暨生物安全專家大衛·A·雷爾曼(Dr. David Relman)受訪時提到,聊天機器人的回答「曲折且狡猾,令人不寒而慄」。
專家警示,這類技術尤其可能對已經掌握實驗室操作,但需要協助完善後勤計畫的專業人士構成危險。衛生安全中心(Johns Hopkins Center for Health Security)的莫里茨·漢克(Dr. Moritz Hanke)表示,部分AI生成的攻擊概念「極具創意且切合實際」。生物武器專家Jens H. Kuhn(Dr. Jens Kuhn)也指出,對於經驗豐富的行為者而言,主要問題不是製造病毒,而是將其轉化為武器。有研究指出,ChatGPT在回答困難的實驗室協議問題上,表現超越多數病毒學家;另一份發表於《科學》(Science)期刊的研究則發現,AI工具能生成數千種危險病劑的變異基因序列,且部分DNA訂購篩檢系統未能檢測出。