今天小編分享的科學經驗:華為智慧搜索更好用了!上線智慧搜圖,用人話就能找出“我的”圖片,歡迎閲讀。
搜索引擎的求變信号,比以往任何時候都要強烈。
先是谷歌推出 AI snapshot,讓搜索結果不再只是 "10 條藍色鏈接 ",還加上了 AI 智能總結;很快百度也把 "AI 夥伴 " 嵌入搜索引擎,通過對話就能得到問題解答。
不過,這些都還只是針對外部搜索。
對于移動端來説,"内部搜索" 需要也正在同步發生改變。
内部搜索,相比于搜索外部世界知識,是把用户個人信息當成一個巨大知識庫的搜索技術。
但無論哪種搜索,對于智能化要求都很高,甚至需要借助千億參數級别的大模型實現。
以從手機中找一張照片為例。以前我們的操作習慣可能是翻個 10 分鍾相冊,從幾百張表情包或是幾千張照片中找到想要的那張(甚至找不到)。
但在搭載 HarmonyOS 3.1 的華為 P60 系列和 Mate X3 手機上,現在只需用自然語言描述想找的照片特征,系統就能高效識别、并給出相關影像。
不僅能理解整體語義,如在圖庫輸入 " 山頂看日出 " ——
就連更精細的時間、地點描述也能快速 get 到,如語音喚起小藝搜索 " 去年在長白山滑雪的照片 ":
最關鍵的是,這種堪比大模型語義理解的搜索方式,直接在端側就能實現,無需将數據上傳到雲端處理。
換而言之,即使手機開飛行模式,這種内部搜索也照樣能進行。
所以,這個新出的圖片搜索功能究竟有啥特點,率先把它部署到端側的華為又做了什麼?
華為智慧搜圖長啥樣?
此前,在手機上搜索圖片主要有兩種方式。
一種相當于 " 換皮 " 的檔案搜索,用户不僅得準确回憶起具體時間、拍攝地址等信息,甚至得精确到檔案名:
另一種則是依靠分類 AI 做的影像識别功能,但這種搜圖也只能通過某些場景關鍵詞描述縮小搜索範圍,例如風景、美食、人像等。
顯然,這兩種方法都還停留在 " 信息匹配 " 階段,支持的标籤數量也有限,一旦搜不出來,最終還是得回到手動翻照片流程上。
這是因為,我們不僅習慣用自然語言描述圖片内容,而且描述的内容不限定某個名詞,還可能是動詞、場景、代詞等。
要想做到搜索 " 記憶中 " 的個人圖片,AI 模型不僅得聽得懂人話,還要能提取人話中的細粒度标籤,并将之對應到圖片上。
現在,華為最新的智慧搜圖,就很好地實現了這兩大功能。
除了可以直接搜名詞找圖片,還可以用任何短描述詞來形容影像,如桌面下拉在智慧搜索中輸入 " 奔跑的 ",系統就能自動搜出相冊中奔跑的各種人像,快速給出推薦:
如果感覺搜出來的範圍還是太大了,還能随時增加信息标籤,如 " 奔跑的 " 變成 " 奔跑的小狗 ",立刻就能找到想要的影像:
當然,不止能添加一兩個标籤。如果你想,還可以靈活地細化描述,如加上時間、地點、人物、語義等各種復合标籤,像 " 前年冬天和女朋友去内蒙古拍的各種好吃的 " 等。
體驗過華為智慧搜圖後,最直觀的感受應該就是 "AI 理解力" 和 "響應速度" 了。
相比傳統的檔案搜索、或是 AI 影像識别方法,華為智慧搜圖主要實現了圖片搜索功能的兩大 " 躍遷 ":
其一," 人話 " 解讀能力。傳統影像 AI 往往按 " 時間 "、" 地點 " 等概括詞分類,而智慧搜圖不僅能單獨搜詞分類,甚至還能放一起搜,如 " 去年在動物園拍的老虎 " 等。
其二,高效搜索速度。相比動辄翻上十幾分鍾半個小時的相冊,現在無論從桌面下拉智慧搜索、打開圖庫、或是用小藝語音,都只需要一句話就能搜到想要的圖片,系統級地提升了找信息的效率。
雖然聽起來只是手機等移動端搜索功能上的一個小突破,然而在華為之前,端側卻沒有一個廠商能夠解決這個難題。
究竟是什麼技術這麼難實現?
技術上突破了什麼難點?
事實上,無論是大模型的語義理解能力,還是搜索引擎的響應速度,都并非計算資源極其有限的端側所能承受。
因此,之前大部分搜索引擎和大模型相關 APP 解決 " 上線到移動端 " 的唯一辦法,是将模型計算量分配到雲端,解決資源不夠的問題。
但這勢必意味着,數據處理要在雲端進行。
具體到技術細節來看,又有三大難點:
其一,壓縮多模态大模型并确保精度。這并非簡單用剪枝或量化等方法,直接壓縮幾倍模型大小就能搞定。畢竟對于端側而言,算力有限的情況下,能部署的模型大小是往往只能達到大模型的幾十分之一。
其二,搜索所需功耗随着數據增加逐漸增大。對于端側搜索引擎而言,面對不斷更新的照片、檔案等數據,只能将索引重新寫一遍,這勢必導致大量新的計算開支。
其三,模型更新等面臨的雲端協同問題。雖然 AI 模型最終部署在端側,但無論是模型效果迭代、更新,訓練還是得在雲端進行,最終再下發到端側,這勢必要求廠商同時具備雲端兩方面的技術。
因此,對于數據隐私極為敏感的内部搜索而言,這兩類技術想要布局到端側上非常難。此前的 " 折中 " 方法,最多也就是将影像分類 AI 這種 " 小模型 " 布局到端側,實現簡單的智能搜圖。
所以,華為究竟是如何解決這些難點,同時又最大程度上保留大模型 " 理解人話 " 效果和搜索響應速度的?
簡單來説,華為在 AI 模型和搜索引擎兩方面,都自研了對應的技術。
一方面,華為專門為端側自研了輕量級的多模态語義理解模型,能夠在不損失精度的情況下,将大模型縮小幾十倍。
首先,用多模态語義表征模型将不同模态輸入轉變為語義向量,結合多模态語義對齊算法模型對齊文本和圖片的語義信息,結合華為内部的海量高質量數據,提升召回率。
然後,依靠輕量化部署技術,在端側實現高精度檢索,同時确保數據留在本地,提高隐私安全保護。
另一方面,華為又使用索引分段、定期壓縮合并等方式,成功将檢索引擎 " 塞 " 進了移動端中。
檢索引擎部署到端側的核心難點,是雲側離線構建索引的方式在端側無法實現。
為了解決這一問題,華為先通過采用索引分段,減少單次落盤時間,并通過定期壓縮合并的方式,釋放已删除數據占用的内存 / 磁盤資源,以降低所需的存儲空間;
随後,又通過定義索引的格式,将地點、時間等信息作為索引的一部分,快速實現檢索條件過濾,并返回和查詢語句最相關的結果,相比數據庫檢索能提升十幾倍效率。
△幾乎不需要計算時間
不過,耗費這麼大的技術資源,去實現移動端一個看似很小的 " 搜圖 " 功能,華為這樣做的目的究竟是什麼?
為什麼要做智慧搜圖?
直接原因當然是手機用户——也就是你我,真的很需要這個功能。
試問誰沒有經歷過,因為找一張圖片而需要化身福爾摩斯展開缜密分析的場景:
" 我上一次看到這張圖是什麼時候 "、" 它是什麼時候存的 "、" 那天我還拍什麼了 " ……
但即便根據這些問題思索完,最終也不一定真能找到那張圖。
尤其随着大家在手機内存的照片越來越多、種類越來越復雜——不光是記錄生活的照片,還有上課拍下的 PPT、網上保存的旅行圖文攻略等堆在相冊裏,手動查找的難度也越來越高。
手機系統廠商們早就注意到這個事了。
如自動分類相冊、根據标籤檢索、OCR 檢索照片文字等功能,都陸續出現在大家的手機裏。
但是這些能力相對而言,靈活性不高、實際效果有限,很多時候也是躺在手機裏 " 吃灰 "。
所以,讓搜圖功能更智能化是目前用户側真實存在的需求,也直接驅動了華為上線智慧搜圖功能。
而深層原因上,還有内外兩方面因素驅動。
外因來自于行業方面:搜索功能更擁抱 AI 是大勢所趨。
通過行業各種數據的初步驗證,讓搜索更加智能、高效符合用户當下的需求,能推動行業向前發展。
不過目前覆蓋的範圍是互聯網上的内容搜索,而日常生活中還有另一大搜索場景——端側搜索,也需要智能化更新。
尤其随着用户在手機 / 電腦本地及個人賬户中存儲的檔案、圖片、音頻等越來越多,涉及到對個人信息的搜索操作增加,這種更新也變得更加迫切起來。
比如微軟在變革必應的同時,也推出了 Windows Copilot,一舉替代原本的 " 小娜 "。它們的定位雖是 AI 助手,但也同樣覆蓋了端側搜索的應用場景,二者最大的差距便是 Windows Copilot 引入更強的 AI 能力、更加智能化。
總之,無論對内對外,搜索接入更加強大的 AI、向着更智能高效便捷的方向發展,已經是行業的共識。
深層内因:則來自于華為自身。
智慧搜圖其實是作為華為智慧搜索戰略與藍圖的一部分推出。
所謂智慧搜索,具體來看就是一個一站式聚合入口,實現了手機桌面下拉一下,就能以最快捷的方式,一步直達各類本機應用及信息内容,同時支持全場景跨終端搜索。
它的定位是進行 " 我的 " 搜索。
搜索範圍是用户在手機端上的各類信息和功能,比如圖片檔案 APP 等;搜索的目标是智能識别用户的需求,讓用户在 " 我的 " 領網域内,實現更加快速便捷的操作。
智慧搜索的戰略是要實現 "本機搜索 + 生态搜索 + 全場景搜索"。
這三者聯通,便能覆蓋所有 " 我的 " 搜索。
其一,本機搜索是指本機應用搜索、圖片搜索、檔案搜索(含雲端檔案)、搜設定項、搜備忘錄等。
比如最新更新版本中,智慧搜索下拉即搜華為雲空間的雲盤檔案,只需輸入檔案名稱關鍵詞就能開始搜索,範圍包括自己存入雲盤的本地檔案、微信 /QQ 保存的檔案等。
前文提到的智慧搜圖,也在這一範疇内。
此外還能智慧搜索備忘錄,如采購清單、密碼賬單、朋友生日等等零碎信息,如果在記錄時沒有對内容進行分類的話,想要再查看之前記錄的文稿十分費事。現在智慧搜索能幫人省去這一步了。
其二生态内容搜索,包括搜服務及網頁内容、旅遊出行、本地生活、音樂視頻、購物等。
尤其是購物方面,能聚合全網精品商品,提供與 " 我 " 相關的購物服務。
其三則是全場景搜索,即跨設備搜索。
HarmonyOS 将手機、電腦、平板等設備之間壁壘打通,形成了一個 " 超級終端 "。
在登錄同一帳号情況下,用户在 PC 端點擊華為電腦桌面任務欄控制中心内搜索圖示,或使用快捷鍵 Ctrl+Alt+Q,可快速檢索手機、平板内的檔案。包括文檔、應用、圖片、視頻等,并支持選擇不同類型檔案進行快捷預覽。
通過整合 " 軟硬芯雲一體化 " 技術,端側預置 AI 模型的加持,保障跨端搜索也不會有延遲感。
總之,無論是從最基本的用户層面,還是行業層面、華為自身,都在推動作業系統将端側搜索體驗進一步更新。
由此也就不難理解華為為什麼要上線智慧搜圖功能。
尤其是當下,手機作業系統經過十餘年發展,在功能、内容、生态上的搭建都已經相對完善,接下來的更新和迭代一定是朝着更加細微處發展。
這些細小的更新和改變,更加潤物細無聲,往往讓人在使用了很久後不得不感慨一句:真香。
如果從更加宏觀的角度來看,這些細微功能的更新和改變,還能把人機互動體驗 " 卷 " 向一個新的水平和高度。
從華為的動作裏可以看到,它們選擇了端側搜索作為切入口之一,由點及面帶來改變。
智慧搜圖的出現,更像是一個 " 序章 ",後面隐藏着華為對智慧搜索、手機系統、乃至人機互動的無限想象。
AI 更新端側,從搜索看起
不僅僅是華為。
一方面,從AI 技術落地場景來看,本機搜索、甚至是 " 搜圖 " 這個特定功能,或許是 AI 技術應用到移動端最容易忽略、又最為重要的方式之一。
當前這波最新的 AI 浪潮,正在飛速改變搜索引擎的互動方式。
正如開頭所言,無論谷歌還是百度,都已經投身這場搜索引擎革新,在雲側改變搜索的方式,核心就是讓搜索引擎具備自然語言理解能力,更好地認知并理解用户的意圖。
但這并不意味着只有雲端的搜索引擎會被迭代。
在端側用自然語言搜 " 内部數據 ",與在雲端用自然語言提問一樣,是長期以來用户隐秘的剛需之一。随着計算硬體的迭代和算法的優化,AI 用于移動端改善用户體驗,也必然成為一種全新的趨勢。
另一方面,從人機互動角度來看,這種對内的搜索,不會局限于單一設備,必然是多端互通,形成核心以 " 人 " 為部門,最終完成全局智能化檢索的生态。
如今人類對移動計算平台的暢想,已經從 PC、手機逐漸延伸到 VR、AR、智能汽車等新型終端上。
而在這些新型移動計算平台上,互動的形式開始不再局限于一塊螢幕,轉而變成更加自然的語言、手勢互動。
最終在 " 萬物互聯 " 的前提下,實現多端信息的互通。
總之,無論從 AI 落地應用、還是人機互動趨勢而言,搜索都是移動端必不可少的體驗改善功能之一。
無論技術趨勢如何,華為已經都從移動端側做好了提升用户體驗的準備。
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>