根據《Default》報導,這項審查機制將著重於AI模型的網路安全能力。其中一個引發關注的案例是Anthropic公司,該公司選擇不發布其最新模型Mythos,因其具備識別和利用軟體漏洞的能力。Mythos已提供給特定的私營利益相關者及聯邦政府進行防範評估,英國的The Alan Turing Institute(U.K. AI Security Institute)曾評估指出,Mythos能以一定可靠性執行多達32步驟的企業網路攻擊,而人類需耗時20小時才能完成。
目前,這項審查系統傾向採自願模式,由Center for AI Standards and Innovation(CAISI),一個隸屬於美國商務部國家標準及技術研究所的單位,負責進行部署前的模型評估。若CAISI發現模型可能對關鍵基礎設施或公共安全構成網路威脅,可將資訊分享給網路安全暨基礎設施安全域性(CISA),後者可依據2002年國土安全法案的授權,採取進一步行動。