有別於過去需針對特定防禦機制客製化的攻擊手法,此次研究發現的簡單「消除雜訊」攻擊,在四項直接比較中均優於先前專業設計的攻擊方法。這項研究成果已發表於 IEEE Conference on Secure and Trustworthy Machine Learning。研究團隊警告,任何擁有筆記型電腦並能取得免費AI模型的個人,都有能力執行此類攻擊。隨著生成式AI影像模型持續改進,未來的防禦工作恐將更加艱鉅。因此,研究團隊呼籲,未來的任何保護方案都必須在面對現成AI模型時進行基準測試,方能獲得信任。