國際金融監管機構與組織對此風險高度關注。例如,美國紐約州金融服務廳(New York State Department of Financial Services)在 2024 年 10 月發布警告,指出攻擊者可能利用AI進行偵察並竊取敏感的非公開資訊。開放全球應用程式安全專案(OWASP)也在 2025 年的報告中強調了提示注入與AI過度自主可能導致的未授權行動風險。G7 網路專家小組亦在 2025 年 9 月向財政部長們建議,AI將引入新型網路資安風險。
為有效管理這些風險,專家建議,AI助理在生產環境中需要嚴格的邊界。「Tyson Foods」與「Exeter Finance」團隊採行嚴格的「無許可不行動」(no gate, no action)政策,AI系統預設為唯讀模式,任何回應性動作都必須經過人類分析師的批准,實現「人類在環」(human-in-the-loop)的控制。此外,他們要求模型必須為其每個結論提供具體證據,貫徹「無引證,無信任」(no citations, no trust)原則,以確保可審計性並建立分析師的信心。這表明,應由模型證明其工作,並由人類掌握最終決策。