今天小編分享的科技經驗:谷歌入局AI眼鏡!昔日智能眼鏡鼻祖,要靠AI+AR再赢一次?,歡迎閲讀。
來源:雷科技 AI 硬體組 | 編輯:冬日果醬
2025 年的今天,AI 眼鏡越發成為焦點,或許我們可以大膽地猜測,未來的 AI 助手不是藏在手機 App 裏,而是戴在你臉上、看你所看、答你所問。
4 月舉辦的 TED 大會上,Google 也給出了自己的答案。在 TED 官方上周最新發出的視頻中,谷歌首次公開展示了搭載 Android XR 的 AI 眼鏡,如何在 Gemini AI 的加持下如何運行:
不僅能聽懂語言、即時翻譯,還能「看見」世界,甚至記住用户曾看過的物體、識别書名、直接播放唱片上的音樂、疊加導航指引。
圖 / TED
這場現場演示,也再次引發了外界對于 AI 眼鏡的廣泛熱議。誠然,這不是 Google 第一次做眼鏡,也不是第一款 AI 眼鏡,但它背後是 Google 最新構建的 XR 系統平台 Android XR,也是 Gemini 大模型首次與現實空間深度融合的結果。
尤其在 Meta、Rokid、雷鳥等廠商接連發布 AI 眼鏡後,Google Android XR 的這次「下場」,也被視作 AI 眼鏡「平台戰争」的新号角。但 Android XR 能夠復制 Android 在智能手機市場的成功嗎?或許很難。
在 TED 放出演講視頻《The next computer? Your glasses》中,能夠很明顯看到 Google 打造的 AI 眼鏡,很像一副普通眼鏡。别誤會,這是大勢所向。
進行演示的 Google AI 眼鏡,圖 / TED
不同于 AR 眼鏡過去的張揚設計,今天 AI 眼鏡追求的就是越像普通眼鏡越好,以便于消費者在日常生活中無感地進行使用。包括 Google 這副看似樸素的智能眼鏡,一開始或許不如 Vision Pro 那樣炫技,但當 AI 開始真正「看懂」世界,它釋放出的潛力,足夠讓人重新想象 AI 眼鏡的未來。
其中最引發熱議的,就是 Gemini 展示出的「記憶」能力。
我們可能都見過這樣的演示:戴着 AI 眼鏡對着某個畫面詢問 AI。不過 TED 現場的演示中,Google 不只是展示了這類實時響應,讓 Gemini 看着現場寫俳句(日本的一種古典短詩)。
但更讓人驚喜的是,Google 員工 Nishtha Bhatia 只是輕輕瞥了一眼身後的書架,然後背身再等了一段時間,才詢問眼鏡「後面架子上那本白色封皮的書叫什麼?」,随後 Gemini 秒答:
那是詹姆斯 · 克利爾所著的《Atomic Habits》(中文版譯名為《掌控習慣》)。
Gemini 有記憶的能力,圖 / TED
不僅如此,Gemini 還能提前記住看過的信息,然後在之後的詢問中直接告訴 Nishtha Bhatia 房卡放在了唱片旁邊。相比之前 AI 眼鏡只能「問答」或「識圖」,Google 這次展示的 AI 眼鏡,在「連續性」和「上下文感知」方面,可以説邁進了新的維度。
這不是傳統意義上的影像識别,而是近乎具備了「視覺記憶」的 AI。用户視線已經離開,AI 卻「記住了」曾經看到的物體。換句話説,它也不只是識别「是什麼」,而是真正能理解「你在問什麼」。不過 Google 也留下了一些疑問:
AI 眼鏡上 Gemini 的「記憶視窗」能有多長?
但無論如何,這都是我們之前在所有 AI 眼鏡中,沒能看到的。當然,這主要還是得益于 Gemini 模型的能力,理論上随着其他第三方大模型的迭代和釋放,其他 AI 眼鏡也能實現。
TED 現場的這場演講之所以引發廣泛關注,不僅因為 Gemini 的「記憶力」突破,更因為 Google 這次交出的,是一副具備 AR 顯示能力的 AI 眼鏡。
關注 Google Project Astra 項目的朋友可能還會記得,2022 年谷歌官宣收購了一家名為 Raxium 的 MicroLED 顯示屏公司,當時就引發了諸多猜想。而在 TED 演講中,Google XR 負責人 Shahram Izadi 就透露,現場演示的 AI 眼鏡搭載了 MicroLED 顯示屏。
Shahram Izadi 展示 AI 眼鏡顯示屏,圖 / TED
從視頻中的演示也可以看出,Gemini 的互動界面直接出現在鏡片中,不只是在耳邊回應,還會透過光波導鏡片展現在眼前。這種形态 AI 眼鏡的優勢,我們已經説過很多回:
核心在于純語音互動天然存在體驗上的障礙,而視覺 + 聽覺的互動體驗,更符合人類天生的認知和互動習慣。
還是拿 Google 的現場演示來説,Gemini 能夠在回復——不管是回答還是翻譯直接呈現在眼前讓人閲讀,不僅作為觀眾的他者,就連進行演示的 Nishtha Bhatia 本人也能非常高效地了解信息,而不用等待 Gemini 的逐詞念出。更不用説,嘈雜環境下,就連更靠近耳道的開放式耳機也很難,遑論 AI 眼鏡。
除此之外,顯示能力的加入也帶來了更多的互動可能,比如最直接的就是—— AR 導航。通過将數字信息透過眼鏡疊在眼前,Google AI 眼鏡能夠進行在現實空間中進行為用户進行更直觀的導航,包括實際的方向、距離和路線。
這種輕量化 AR 能力的加持,當然也不只是 Google 一家在做。
Rokid Glasses,圖 / Rokid
事實上,雷科技多次在 AI 眼鏡報道中提到的 Rokid Glasses 就率先采用了這種 AI+AR 的路線,配備了雙目 AR 顯示,支持信息推送、空間導航、翻譯字幕、AI 對話等功能。另一邊,Meta 與雷朋(Ray-Ban)合作的下一代智能眼鏡,也被英國《金融時報》爆料将在今年晚些時候加入 AR 顯示功能。
但想要做好 AI+AR 顯示,并不簡單,其實背後藴含的是對空間感知、視覺識别和語義推理的整合能力,同時也代表了 AI 眼鏡從「語音驅動」跨越到「多模态互動」的重要節點。
Google 這次帶來的 AI 眼鏡背後,是一個新名字—— Android XR。雖然披着 Android 的外衣,但它其實是 Google 為 XR(擴展現實)設備打造的一套全新作業系統架構,主打融合語音互動、視覺感知和空間定位等能力。
換句話説,它不是給手機用的 Android,而是 Google 想在下一代計算平台上,再復制一次 Android 的生态奇迹。
但現實是,今天的 AI 眼鏡,不是 15 年前的智能手機。
回看 AI 眼鏡行業的現狀,我們幾乎看到每一家頭部廠商都在自研作業系統。Rokid 自研了空間作業系統 YodaOS-Master,這是專為空間計算與多模态 AI 互動設計的作業系統。Meta 也有自己的 Horizon OS,不僅強調空間作業系統定位,甚至計劃向第三方開放。
YodaOS-Master,圖 / Rokid
簡單來説,大家早已不再指望 Android 給 XR 提供答案。Google 推出 Android XR 時,雖然能打出「兼容 Android 應用」的優勢牌,但這張牌,現實裏其實越來越輕了。
智能手機之所以需要作業系統标準,是因為它承載的是高頻 App 使用場景:社交、支付、娛樂、地圖 …… 都需要一個穩定的生态容器。
但 AI 眼鏡不是手機,它的核心互動邏輯并不依賴「打開某個 App」,而是基于語音、影像和上下文理解的即時響應。在 TED 的演示中,我們也可以看到,用户不需要點擊任何圖示,不需要跳轉任何應用——只要説出來、看過去、問一句,就能觸發系統執行:
- 看到書架,問書名;
- 看向唱片,播放歌曲;
- 嘴裏説「去哪」,導航就展開。
這些體驗很多都不太依賴龐大的 App 生态,而更接近服務即操作、意圖即執行的系統級協作。硬要説的,Gemini 或者説 AI 才是真正的關鍵。在這方面,Gemini 很強,但還遠不能「力壓群雄」。
從 TED 演示的那副眼鏡出發,我們看到 Google 正試圖用 Gemini 重構 AI 眼鏡的互動方式,并借由 Android XR 再次發起一場平台級的進攻。它做出了真正「看得見」的 AI 眼鏡,也帶來了記憶、導航、翻譯等一整套超越傳統的體驗。
但要構建一個真正意義上的平台,靠炫目的演示還遠遠不夠。Android XR 面臨的不只是技術挑戰,還有群雄的市場格局,以及用户互動遷移的巨大挑戰。包括當用户不再「打開 App」,而是與 AI 直接對話時,什麼才是平台?
這也是 Google 此前所有 XR 項目始終未能落地的症結所在——它太擅長構建系統,卻始終沒找到下一個系統存在的理由。
但無論如何,AI 眼鏡确實展現了成為新一代個人計算平台的巨大潛力,至于 Android XR 能不能成為那個定義标準的平台,還是需要我們抱有耐心,見證歷史。