圖/本報AI製圖(示意圖)商傳媒|責任編輯/綜合外電報導
OpenAI於昨日(3月18日)正式發布兩款全新模型——GPT-5.4 mini及GPT-5.4 nano,標誌著人工智慧發展正從追求極致「算力」轉向強調「速度」與「效率」。儘管多數使用者可能不會直接操作這些新模型,但它們所帶來的幕後革新,將深刻改變我們日常使用的各類AI工具。
近年來,AI模型的推出常給人一種可預期的感覺,多半是更大規模、更高基準測試分數的增量升級。然而,GPT-5.4 mini與GPT-5.4 nano的問世打破了這一模式,其核心目標在於提升處理高負載任務的速度與效率。這項策略與Google近期發布的Gemini 3 flash-lite模型方向不謀而合,顯示業界普遍朝向更精巧、更快速的模型發展。
GPT-5.4 mini相較於先前的GPT-5 mini有顯著提升,不僅在編碼、推理、多模態理解及工具使用方面表現更佳,運算速度也快上兩倍以上。在如SWE-Bench及OSWorld-Verified等編碼相關的基準測試中,其性能已逼近GPT-5.4。雖然目前在整體基準測試上,Anthropic的Opus 4.6仍位居領先,但GPT-5.4 mini結合接近旗艦級的性能與大幅縮短的反應時間,使其應用潛力備受關注。
對於廣大使用者而言,最理想的AI工具並非單純擁有最高智慧者。日常工作中,例如文件摘要或社群媒體內容排程,使用者更看重的是工具能否即時回應並順暢融入工作流程。因此,相較於擁有「火箭科學家」般智慧的模型,一個能夠快速完成任務、反應迅速的AI,更能有效提升生產力。
這波變革主要發生在幕後,AI模型的運作方式正在經歷重大轉變。未來的AI系統將更像是一個協作團隊,而非單一的「超級大腦」。大型模型負責統籌規劃與協調,而GPT-5.4 mini這類小型模型則作為「子代理」(subagents),平行處理特定的快速任務。這意味著多個流程將同時在背景運作,帶來更有效率的協作模式。
使用者雖不會直接在選單中選擇GPT-5.4 mini或nano,卻會明顯感受到這些變革的影響。它們將讓應用程式的回應速度更快、即時助理不再有延遲,並有效執行摘要、排序與數據提取等背景任務,使AI工具整體使用起來更為流暢與即時,減少「思考中」的等待感。尤其GPT-5.4 nano,專為高吞吐量任務而設計,這些「隱形」工作支援著從搜尋結果到應用程式內部智能功能的各個環節。
長期以來,AI發展聚焦於打造功能最強大的單一模型。然而,產業正朝向系統化的方向演進,由不同模型協同處理任務的各個環節。這不僅能提高輸出速度與一致性,也讓AI工具更加穩定可靠。AI的未來不再僅是追求更強大的功能,而是讓技術以更無縫、更自然的方式融入我們的數位生活,甚至幾乎不被察覺。