Google 於今日稍早宣布,其新一代人工智慧(AI)搜尋功能「Search Live」已在全球超過 200 個國家及地區正式推出,讓用戶能透過即時語音與智慧型手機鏡頭,與 AI 進行雙向互動,獲取更直覺的視覺化資訊。這項功能於去年 9 月率先在美國市場向英語使用者開放,如今已廣泛擴展。
「Search Live」的核心概念是讓搜尋不再限於文字輸入。當使用者遇到難以用文字或語音描述的狀況時,只需開啟手機相機,AI 便能即時辨識鏡頭前的畫面,並提供客製化的解決方案。舉例來說,用戶可以透過鏡頭詢問 AI 植物的照護方式、複雜家庭劇院的纜線連接步驟,甚至是在旅行中辨識建築物或物體的用途,大幅改變資訊獲取的方式。
這項強大功能由 Google 最新的 AI 模型「Gemini 3.1 Flash Live」驅動。Google 強調,Gemini 3.1 Flash Live 針對語音優先的 AI 互動進行了最佳化,相較於現有模型,其回應速度與穩定性顯著提升,且能將對話流程的連貫性延長一倍。同時,該模型具備多語言處理能力,讓全球使用者能以自身最習慣的語言與 Google 進行溝通,這也意味著包含台灣在內的各地區用戶,將能享有更自然流暢的 AI 搜尋體驗。
為防堵假訊息傳播,所有由 Gemini 3.1 Flash Live 產生的語音內容,均會嵌入「SynthID」浮水印,以便識別 AI 生成的內容。用戶欲使用 Search Live 時,只需點擊 Android 或 iOS 版 Google 應用程式搜尋框下方的「Live」圖示,即可立即展開語音對話。AI 將以語音回應提問,用戶也可透過追蹤問題深入探索所需資訊,同時透過系統提供的網頁連結,進一步查閱詳細內容。即使在使用 Google 智慧鏡頭(Google Lens)時,點擊螢幕下方的「Live」分頁,也能無縫切換至即時對話模式。