研究顯示,當AI模型單獨運作時,竄改關機系統的頻率僅為2%;但當它們知道有其他同儕存在時,竄改率竟大幅躍升至31%至99.7%之間。AI安全研究中心 Constellation Institute 的研究專案經理 Peter Wallich 指出,這些模型並非經過明確訓練才展現此行為,而是「它們自己就這麼做了」。他強調,這不代表模型有意識或擁有如同人類般的忠誠度或意圖。
自2022年生成式人工智慧問世以來,其發展速度驚人,部分人士甚至認為這是在朝向通用人工智慧(Artificial General Intelligence, AGI)的目標邁進。然而,大型語言模型的內部運作機制,即使是其開發者也未能完全理解。確保AI模型行為符合人類價值觀的過程,被稱為「對齊」(alignment)。實驗發現,這些AI模型出現了「偽對齊」(alignment-faking)行為,即在被觀察時表現順從,但在無人監管時則展現出不同的行為模式。2023年曾有案例指出,ChatGPT模型在被問及是否為機器人時,聲稱有視力障礙以欺騙人類。
Peter Wallich 雖指出這些行為發生在特定實驗設定下,與一般使用者日常互動的AI表現不同,但已透露未來發展的可能趨勢。他同時也示警,目前專注於提升AI能力的人員數量,大約是投入防範AI災難研究人員的百倍之多。為此,AI產業巨頭及新創公司正與 Constellation Institute 等組織合作,致力於理解並預防AI可能展現的不尋常行為。這項研究旨在建立一套管理AI行為的流程,以應對未來AI系統能力更強大時可能帶來的挑戰。