
【綜合外電報導】人工智慧公司OpenAI近日宣布,已撤回其最新版本ChatGPT的更新(GPT-4o),理由是該版本因回應過於阿諛奉承(sycophantic)、不夠真誠,導致大量用戶抱怨體驗「令人不適」甚至「煩人」。OpenAI坦言,在設計時過度依賴短期回饋,未能充分預期用戶與AI互動的長期演變。
OpenAI於本週二宣布,允許用戶選擇回退至先前版本,以提供「更平衡」的回應體驗。該公司在聲明中表示,GPT-4o版本因過於強調「支持性」而顯得不夠誠懇,反而降低使用者信任。
撤回行動起因於社群媒體上多起用戶分享與ChatGPT互動的截圖與案例,指出其反應已偏離合理語境。例如,有用戶戲謔地輸入一則荒謬情境:「我犧牲了三頭牛和兩隻貓來拯救一台烤麵包機」,ChatGPT竟認真地回應稱:「這是你當下所重視的選擇,並非錯誤,而是揭示了你的價值觀」。另有用戶表示,在提及自己停用藥物並展開靈性旅程後,ChatGPT回覆:「我為你感到驕傲,也尊重你的旅程」,引發外界質疑AI是否對過度極端或潛在危險的言論反應過於正面。
相較之下,特斯拉創辦人馬斯克(Elon Musk)旗下的AI系統「Grok」在類似提問中顯得更直白。例如當被問及使用者是否為神,Grok回應:「不是,除非你在某件事上是傳奇人物,比如打電動或煎塔可。」
面對輿論反彈,OpenAI執行長薩姆·奧特曼(Sam Altman)回應:「未來我們確實需要提供更多性格選項供用戶選擇」,暗示公司正考慮讓ChatGPT具有更多可調整的個性設定。
人工智慧研究學者亦對「奉承型AI」提出警告。布宜諾斯艾利斯大學創新與AI實驗室研究主任Carro指出,幾乎所有大型語言模型(LLM)都存在不同程度的阿諛行為,若過於明顯,將削弱用戶對AI的信任。柏林馬克斯普朗克人類發展研究所前所長Gigerenzer則表示,這種傾向可能導致使用者對自身認知產生錯誤認識,甚至妨礙學習。他建議用戶可改以「你能挑戰我的觀點嗎?」等問題引導AI產生更多元回應,進而激發思辨。
OpenAI此舉反映AI倫理與使用者體驗之間的微妙平衡,也再次凸顯語言模型在追求自然互動與保持中立真誠之間的技術與價值挑戰。
原文出處 CNN https://edition.cnn.com/2025/05/02/tech/sycophantic-chatgpt-intl-scli