商傳媒|何映辰/台北報導
美國政府問責局(GAO)於3月26日發布報告指出,白宮管理及預算辦公室(OMB)為聯邦政府加速採用人工智慧(AI)技術所發布的指導方針,未能充分解決關鍵的隱私風險,這可能導致各機構在處理敏感資料時面臨外洩的潛在危機。
GAO召集專家小組討論政府AI實施情況後得出結論,OMB的AI指南並未全面涵蓋所有主要的隱私相關風險與挑戰。專家們警告,使用AI可能揭露原始數據集中的敏感資訊,進而暴露個人及私人資料。此外,聯邦機構在應對AI隱私風險時面臨技術限制,缺乏具備適當隱私保護的AI技術,以及在為保護隱私而調整或移除資料時,可能導致AI效能下降的權衡問題。
GAO向OMB提出兩項建議,但OMB未對此發表評論。第一項建議要求OMB明確列舉已知的隱私相關風險案例,供各機構更新政策時參考。第二項建議則呼籲OMB發布政府範圍的指導方針,闡明各機構應如何考量隱私,包括評估和審計含敏感資訊的AI模型、儲存資料以區分敏感資訊、開發具明確隱私規則的內部AI解決方案、使用AI隱私影響的績效指標、確保公眾理解與AI技術互動時的同意權、利用技術工具保護AI中的敏感資料、將AI特定考量納入隱私影響評估,以及權衡隱私與AI效能的潛在衝突。GAO認為,若缺乏這些額外指導,各機構使用AI時披露敏感數據或損害隱私的風險將會增加。
除了政府層級的規範,企業界也面臨嚴峻的AI隱私挑戰。在RSA Conference 2026會議上,「影子AI」被視為超越過去「影子IT」的重大企業風險,恐導致資料洩漏、法規遵循問題及巨額罰款。例如,歐洲聯盟的《人工智慧法案》(AI Act)已規定最高3500萬歐元的罰款。業界不乏實例:一家醫療保健公司因將病患資料輸入ChatGPT,違反《健康保險流通與責任法案》(HIPAA),被罰款350萬美元;一家製造商也曾因程式碼助手洩漏專有資料而損失5400萬美元。針對這些風險,網路資安公司Fortinet(飛塔)正將網路與安全營運整合至單一平台,並在其FortiOS 8.0版本中引入超過21個AI代理程式與代理架構,以提供統一的可視性與控制力。
人工智慧的應用同時也衝擊了法律領域的隱私保障。美國紐約南區地方法院於2026年2月審理的「美國訴Heppner案」中,一名刑事被告因使用公眾生成式AI(GAI)平台探討其辯護策略,導致其律師與客戶間的特權(attorney-client privilege)被視為放棄。法院裁定,由於被告的律師並未指示他使用該GAI平台,且被告對其與GAI平台的互動沒有合理的隱私期望,因此特權不成立。法庭指出,公眾GAI平台的服務條款與隱私政策通常允許資料被儲存、人工審閱,甚至用於訓練模型或應政府要求提供給第三方。此判例凸顯律師和客戶在使用AI工具時,應特別注意其隱私條款,並確保任何敏感資訊的交流符合保密原則,律師也應在委任函中明確告知AI使用的相關風險,並取得客戶的知情同意,必要時可考慮使用封閉且專為法律訓練的GAI平台以確保隱私。