商傳媒|林昭衡/綜合外電報導
人工智慧(AI)領導廠商OpenAI於昨日(3月18日)宣布,已推出全新GPT-5.4系列中的「mini」與「nano」輕量級模型。此舉旨在擴大其最新AI技術的觸及範圍,涵蓋免費及付費用戶層級,並特別強調了顯著的運算速度提升與成本效益,同時在專業任務上仍保持高效能表現。
根據OpenAI官方說法,GPT-5.4 mini模型在效能上取得重大進展,其執行速度較前一代GPT-5 mini快逾兩倍,但在多項關鍵基準測試中,例如SWE-Bench Pro和OSWorld-Verified,表現已能比擬功能更全面的GPT-5.4模型。這使得mini版本足以勝任專業程式開發與複雜任務。而GPT-5.4 nano則是系列中體積最小、成本效益最高的版本,專為優先考量速度和價格的應用情境所設計。
為擴大應用層面,GPT-5.4 mini已整合至免費版ChatGPT的「思維(Thinking)」功能中,同時也支援OpenAI的程式開發平台Codex及開發者API。付費版ChatGPT用戶若遇到大型GPT-5.4模型的速率限制,亦可自動轉換使用mini模型。至於nano版本則專供API使用,讓開發者能將這款輕巧模型嵌入自家應用程式。mini模型在API端支援40萬個詞元(token)的上下文視窗,有利於處理更長的文本內容。
在訂價方面,GPT-5.4 mini在API端的每百萬輸入詞元成本為0.75美元,每百萬輸出詞元為4.50美元。OpenAI指出,這些模型特別適用於回應延遲直接影響使用者體驗的工作負載,例如需要即時響應的程式輔助工具、處理支援性任務的次代理程式(subagents)、處理螢幕截圖的電腦視覺系統,以及進行即時影像推理的多模態應用。其中,nano版本更推薦用於分類、資料提取、排名及簡易程式開發等次要輔助功能。
OpenAI強調,在許多對延遲敏感的應用中,表現最佳的模型不一定是規模最大的,而是能夠快速響應並可靠運用工具的模型。GPT-5.4 mini和nano能以低延遲處理程式開發流程,包括精準編輯、程式碼庫導航、前端生成與除錯循環等。透過提供這些輕量級模型,OpenAI的策略轉向為大規模普及進階AI能力,而非僅限於高端市場。將GPT-5.4 mini引入免費版ChatGPT,大幅降低了AI輔助程式開發與複雜推理任務的門檻,有望加速AI開發工具在市場上的普及採用。
對投資者而言,這些模型所帶來的兩倍速提升,解決了即時應用中延遲問題的痛點,使其更適用於生產環境。相對較低的定價策略也提供了經濟誘因,鼓勵開發者將這些較小模型整合至高流量應用,而非將所有請求都導向成本較高的旗艦模型。此舉不僅有助於OpenAI最佳化其基礎設施的資源利用,同時也能在不同用戶區隔和使用情境中保持競爭力利潤。隨著越來越多開發者將這些模型整合到生產系統中,儘管單次查詢成本較低,但查詢總量若大幅增加,OpenAI的營收仍可望顯著成長,尤其是在企業環境和開源專案中,這些專案過去可能無法負擔大型模型的成本。