
前兩天我們知道Google終於發表了他們的AI對話式功能「Bard」,接著微軟宣布把ChatGPT那樣的語言理解技術帶入Bing,未來幾個月就會把這套可以理解問題,並幫你找出整理過的,有脈絡資訊的新搜尋結果推向大眾,這些消息都讓我們開始對搜尋的未來感到興奮。
而市佔超過90%的Google搜尋,當然不會沒有作為,雖然剛剛有路透社新聞說Bard因為在宣傳影片裡面,在跟9歲孩子介紹韋伯望遠鏡的最新發現時,給了錯誤的答案,引發投資人擔心Google與微軟競爭的實力,而影響股價下挫7%,但AI模型這種東西本來就是會隨著測試而逐步改善跟強化的(即使上線後還是一直在優化),而且Google在宣布Bard時,也提到目前仍在測試期,會交給可信賴的測試者進行試用,收集回饋改進,所以個人倒覺得不用太悲觀。
在發表Bard之後,Google也在圖片搜尋、翻譯、實景導航...等功能上宣布了導入AI強化的新功能,這些就是我們很快,甚至現在就可以用得到的更新了。
Google提到,從早期的搜尋開始,AI 就幫助我們理解語言,讓搜尋結果更為實用。這些年,Google對AI 領域持續投入更多資源,如今的 AI 能夠理解多種形式的資訊,像是語言、圖片、影片,甚至能理解現實世界,Google今天推出的全新的搜尋方式,就是借助先進的 AI 技術,讓用戶能以更自然和直覺的方式探索資訊。
包括手機全域都能「搜尋你的畫面」,以及圖片+文字一起找的「多重搜尋」,其中「多重搜尋」剛試了一下,現在大家在Android及iOS裝置上,打開Google App就可以玩到了,
這些算是Google搜尋+智慧鏡頭(Google Lens)的升級。
「搜尋你的畫面」是,以往我們用Google Lens做圖片搜尋時,不是當場用手機拍攝辨識,就是把圖先儲存到相簿,再到Google Lens裡選那張圖來辨識搜尋,新功能則是你不用先打開Google Lens,也能隨時看到圖片時就做搜尋,包括網頁、任何App上,也包含照片,影片,在做搜尋時,也不用退出正在用的App。
方法是在看到圖片時啟動Google助理。
比方我們在訊息裡收到朋友傳來的旅遊影片,畫面裡有一座看起來像博物館美術館之類的建築,在看到那個畫面時,啟動Google助理(Android手機的話就是長按電源鍵),然後點擊「搜尋畫面」,就會啟動Google Lens,辨識出這是哪裡,並進一步找到更多資訊。這功能剛在手機上看還沒有上線的樣子,或者有玩到的同學可以來回報一下啦。

「多重搜尋」則是在用圖片找到結果後,進一步用文字找延伸資訊。
大家在手機上開啟Google App,點擊Google Lens的圖示,然後找到你要瞭解的那張圖,在出現結果後,把資訊卡片往上拉,就可以在最上方看到「加入更多搜尋字詞」,在這裡輸入你想進一步搜尋的關鍵字,就會再進一步找出結果。
官方的例子是找不同顏色的椅子。

比方我看到模特兒身上這件衣服很好看,我先用Google Lens找到很多類似的款式,但我更想要黃色的碎花洋裝,所以我可以進一步輸入「黃色」,找到差不多樣子的黃色碎花洋裝,以及哪裡買、多少錢。兩個簡單的步驟就完成好幾種資訊的收集


除了衣服,我也多試了好幾種搜尋情境。
比方看到不知名的野外植物,我已經很習慣打開Google Lens來辨識了,現在多重搜尋就可以讓我更快的進一步搜尋這植物的特性,有沒有毒之類的。

想去照片上的地標 一日遊,除可以先用Google Lens搜尋這是哪裡外,也可以進一步搜尋這裡有什麼咖啡廳,可以休息用餐。

或是比方看房時想要知道這是什麼建案,進一步瞭解這邊的行情。

或是用照片查到這是什麼車型後,進一步查詢它的油耗、試車..等。

應用還很多啦,大家自己慢慢玩,不過現在因為剛上線,不是每樣結果都會很準確,或可以搜尋,比方我選了模特兒照片後進一步打胸圍,想請Google幫我目測,並搜尋不出來....(天啊我這是什麼職業病...),而且發現搜尋到很多簡體的結果...結果準確性我想會改善,希望字體及資料來源也會...
Google也提到他們最近新增了本地搜尋+多重搜尋的功能,用戶可以拍攝,並將圖片加上「在我附近」(near me)來找出所需資訊,不過目前這項功能僅在美國推出並只支援英文,Google預計在接下來的幾個月向全球使用者推出這項服務。
導入AI的用意就在這裡吧,可以讓我們更有效率,找到需要的資訊,而且過程的行為是自然、直覺
的,Google提到,這些成果只是一小部分,未來,在 AI 的幫助下,將有無限可能。