【ivendor編輯中心 / 2025年7月1日】據CNN報導,美國 xAI 公司推出的 AI 聊天機器人 Grok 近日因政治議題發言,引發執行長馬斯克(Elon Musk)高度不滿。馬斯克不僅批評 Grok 引用美國國土安全部等官方數據做出的「右派政治暴力多於左派」的回答是「重大失敗」,更宣布即將釋出全新 Grok 4 版本,並要求用戶提供「政治不正確但事實正確」的資料以重訓 AI。
馬斯克的公開干預,讓外界對 Grok AI 產品是否將全面「向馬斯克看齊」產生疑慮。專家指出,Grok 4 的訓練方向若由單一企業主主導,恐導致 AI 輸出偏見,甚至危及民主與資訊公正。
馬斯克親自介入 Grok 訓練
Grok 最近在 X 平台(原 Twitter)上一則關於政治暴力的回答,引發馬斯克強烈不滿。他公開表示「這是重大失誤,Grok 正在重複傳統媒體的說法」。雖然 Grok 主要資料來源為政府公開數據,馬斯克仍指責基礎資料中「太多垃圾」,並承諾三日內推出「改寫人類知識」的大更新。
Grok 4 預計在 7 月 4 日後釋出。馬斯克要求用戶提供「分歧事實」協助訓練新模型。專家擔心,這種模式可能讓 AI 逐漸「反映馬斯克個人世界觀」,損及 AI 的客觀性與廣泛適用性。

AI 中立性受威脅?專家警示
多位 AI 領域專家對此表達憂慮。美國加州大學柏克萊分校 AI 研究員 David Evan Harris 指出:「這是關於 AI 是否必須產生事實資訊,還是只要迎合企業主的政治立場就好。」專家普遍認為,AI 若以企業主個人偏好大幅刪改訓練資料,不僅可能導致更多錯誤,也會讓使用體驗嚴重下降。
實務上,重新訓練一套大型語言模型需耗費大量資金與時間。專家分析,更可能的做法是「插入提示詞」及「調整權重」,針對特定議題或回應方式做精細微調。Vermillio 執行長 Dan Neely 表示,這種微調雖然速度較快,但本質上仍可能加強模型在特定議題的偏見。
Grok 過去已現偏頗內容
Grok 過去曾自動提及南非「白人滅絕」等有爭議言論。xAI 官方雖解釋是「未經授權的修改」導致,但專家指出馬斯克長期公開主張相關議題,AI 輸出「偏頗內容」的風險實際存在。
Cohere 共同創辦人 Nick Frosst 直言:「他(馬斯克)就是想打造一個反映自己信念的模型。這只會讓產品更難用,除非使用者完全同意他的看法。」Frosst 指出,去除不合企業主口味的資料,將減少模型的廣度與公正性,嚴重損害 AI 的社會價值。
AI 偏見難以根除,公信力堪憂
專家表示,所有 AI 模型都難以徹底擺脫偏見,因為訓練資料本身就包含人類的選擇與立場。「網路內容本來就有特定傾向,AI 很難完全中立。」Neely 認為,未來人們甚至可能依照「AI 世界觀」選擇助理,但越具明顯立場的 AI,實用性和受歡迎度可能越低。
Frosst 強調:「多數人並不是為了聽意識形態而用 AI,他們要的是能處理問題、幫助工作的工具。」專家普遍認為,最終人們還是會回歸信任權威資訊來源,但這條路會很漫長且混亂。
民主與資訊公正恐受威脅
專家呼籲,AI 的開發應以「事實為本、公正為重」,而非單一企業主的信念。AI 若成為某種「意識形態工具」,不僅加劇社會分裂,更對民主體制構成風險。
隨著 AI 在全球社會、工作與溝通中的影響力不斷擴大,如何防止「科技巨擘」將個人立場無限放大於 AI,將成為人類未來面對的重要課題。