今天小編分享的互聯網經驗:蘋果要給AirPods配攝像頭,為了空間計算更為了AI?,歡迎閲讀。
文 | 雷科技 leitech
你是否想過,耳機也會有配備攝像頭的一天?
耳機 + 相機,雖然類似的產品并非沒有,但是我們一般将這類產品稱為 " 智能眼鏡 ",產品定位則類似于随身相機和騎行記錄儀,可以説攝影功能才是核心,而耳機功能只是順帶的。
畢竟從實際體驗和產品設計出發,很難想象怎樣的用途才會需要在無線耳機上增加攝像頭。考慮到佩戴體驗、續航等各方面的限制,這也并非什麼好主意,但是蘋果似乎不這麼想。
在今年 2 月初,外媒曾經報道過蘋果正在探索可穿戴設備的一些 " 未來可能 "。當時的傳聞稱,蘋果正在規劃帶攝像頭的 AirPods 及智能戒指,彼時大多數聲音都認為這只是蘋果在實驗室裏的嘗試,大概率不會轉為實際產品。
圖源:谷歌
然而現實總是更魔幻一些,最新的信息顯示,蘋果計劃于 2026 年量產擁有紅外攝像頭模組的 AirPods。與這個信息相比,往 AirPods 充電盒上塞螢幕的傳聞都顯得無比正常。不過,若是将兩個信息結合在一起,倒是為我們描繪出一款全新的 AirPods,一款配有螢幕、支持攝像的無線耳機,這是什麼?随身迷你相機?
在一個小小的 AirPods 上折騰這麼多新東西,蘋果到底想做什麼?
AirPods,蘋果空間計算的另一塊拼圖
蘋果想做什麼?在回答這個問題之前,我們首先需要了解爆料中提到的紅外攝像頭是什麼?簡單來説,傳統的攝像頭主要是通過傳感器接收可見光,然後轉為影像信号,而紅外攝像頭則不同,除可接受紅外線的傳感器外,還會配置可以發射紅外線的發射器,通過主動照射并接收反射光的方式來生成探測範圍的影像。
相較于傳統攝像頭,紅外攝像頭可以滿足暗光、無光環境的影像監測需求,而且更具隐蔽性,因為紅外發射器發射的紅外光在大多數動物(包括人類)的視覺中都是不可見的,所以也常常被用在户外動物監測等方面的用途上。
咋看之下,紅外攝像頭的主要用途似乎與 AirPods 可能使用影像功能的場景都不沾邊,那這玩意的定位到底是什麼?實際上,紅外攝像頭還有一個用途是傳統攝像頭不具備的,那就是 " 測距 "。
通過紅外線發射及接收到反射信号的時間差,紅外攝像頭可以計算出發射端與反射物體的直線距離,而在短時間内多頻次的發射紅外光,攝像頭就可以通過算法計算出發射端相對于物體表面的移動角度與速度。
看到這裏,或許已經有人猜到 AirPods 搭載攝像頭的原因,并非用來拍照或是其它雜七雜八的新功能,僅僅是為了進一步提升空間音頻的效果。實際上,如果不考慮生成照片級的影像信息,那麼這個紅外攝像頭的功率、體積都可以被縮小到能夠接受的程度。
圖源:蘋果
不過,這意味着網友暢想的 " 你的拍照效果還不如我的耳機 " 等玩梗場面,大概率是不存在的。本質上,這是一個探測并接收紅外線的傳感器,你甚至很難将其稱為攝像頭,最多就是帶有簡單的影像信息,幫助芯片判斷設備所處的環境空間狀态。
除了對外的紅外監測設備,蘋果似乎還為 AirPods 準備了一個生物監測模組,預計将取代現有的内側紅外傳感器,原有的傳感器主要用于檢測佩戴狀态等需求,而新的生物監測模組在此功能上還将提供心率、體温等數據監測服務。
精準空間定位 + 生物數據監測,AirPods 顯然不僅僅是一副耳機,随着 Vision Pro 的發售,蘋果正在計劃将這款最受歡迎的智能穿戴設備,打造成一個全新的空間計算輔助設備,補齊空間計算生态中的音頻一環。
AirPods 提供的精準 3D 空間音頻,加上 Vision Pro 近乎以假亂真的空間顯示效果,将會讓用户的虛拟體驗躍升一個層次。
不得不説蘋果的想法很大膽,想要在一個無線耳機裏塞入這麼多傳感器,同時保持續航和佩戴舒适度,對工業設計的能力要求高到吓人。所以并不奇怪為什麼就連爆料中,也僅稱這是蘋果 " 計劃中 " 的想法,即使最終在 2026 年無法實現上述目标,我也并不感到驚訝。
實際上,想要實時計算紅外攝像頭傳回的數據,對于目前的無線耳機來説就已經十分困難。我能想到的最優方案,是借助手機等無線連接的設備的算力來實現。但是這又會導致空間音頻信号出現延遲等問題,這顯然并不符合蘋果對新一代 " 空間音頻 " 的嚴苛要求。
結合此前的一些報道來看,蘋果的計劃是利用人工智能技術,通過在耳機中部署 NPU 來滿足空間數據的計算需求,這确實是一個可行方案。在空間計算等方面,NPU 對比傳統處理器有着顯著的優勢,通過深度學習構建的 AI 算法,可以更高效的完成空間數據計算,而且功耗也遠低于傳統處理器。
以當前的技術進步速度來看,想要實現這個目标并非遙不可及,其實更多的取決于相關硬體的整合成本,什麼時候可以降低到一個能夠被大家所接受的程度。
另外,我還在思考一個問題,蘋果會止步于此嗎?
AI 時代,可穿戴智能設備才是未來?
當下,個人智能終端的代表無疑是智能手機,但是在 AI 時代,智能終端的形态顯然将變得更加多樣。借助雲端算力與 AI 大模型,未來即使只有一副耳機也可以完成許多復雜任務,可穿戴智能設備與智能手機将不再是單純的從屬關系。
實際上,蘋果如今就在推動這一進程,Vision Pro 就是一個很好的例子,為了讓用户可以在户外使用,蘋果甚至不惜額外增加了對外的平面顯示器和一系列的攝像頭及傳感器,來實現外部的面部再現與内部的現實畫面投射。
但是,Vision Pro 等類型的空間計算設備,顯然不能作為常規的日常可穿戴智能設備來看待。某種程度上,這類設備更像是筆記型電腦,只有在大家需要沉浸式體驗和完成復雜的視覺互動任務時,才會将其戴到頭上并使用。
Vision Pro 設計的離電續航也證明了這一點,這并不是一款為長時間随身攜帶所設計的產品,那麼蘋果顯然需要其他設備來補齊缺失的一環,會是什麼?其實答案很明了,Apple Watch+AirPods+AR 眼鏡,而且前兩者的職責将會出現一些重合,使得用户可以更自由的選擇設備搭配。
在 AirPods 被曝光将配備紅外攝像模組時,其實還有一個信息:蘋果在 2023 年啓動了一項名為 B798 的項目,該項目的目标是在 AirPods 上配置一個較低分辨率的攝像頭,實現影像級的數據采集。
相較于只能用于空間定位的紅外攝像模組,進階版的攝像模組可以作為 AI 助手的輔助,讓 AirPods 裏的 AI 能夠 " 看到 " 使用者周圍的情況,并提供基于影像數據的幫助。
舉個例子,當你走到一間餐廳門前,想知道餐廳的口碑與人均價格,當下的做法是拿起手機,通過大眾點評等 App 來搜索餐廳名字,再确認評價。而在未來,你只需要通過語音直接詢問 Siri,她就會通過 AirPods 上的攝像頭确認餐廳的名稱,結合定位等信息搜索餐廳的相關訊息,然後通過耳機直接反饋結果。
有意思的是,在蘋果的計劃中,AirPods 并非唯一新增攝像頭模組的可穿戴智能設備。今年 3 月份曝光的一項專利中,蘋果已經找到了一個解決方案,讓 Apple Watch 可以配備屏下攝像頭模組,這個模組可以實現拍照、面部追蹤、Face ID 等多種功能,将讓 Apple Watch 成為一個更加獨立的智能終端。
結合蘋果在 AI 等方面的動向,其實不難猜測這個攝像模組的主要用途,大概率就是 Apple Watch 的 AI 視覺輔助模塊,為 Apple Watch 提供實時的影像采集能力,使其能夠在一定程度上取代 iPhone 的用途。
但是 Apple Watch 的攝像頭在使用過程中,不管是屏下式還是側邊式,實際上都面臨一個問題,那就是不夠自然,我想應該不會有人想一直抬着手走路,對吧?這也就催生了 AirPods 的攝像需求,通過兩款可穿戴智能設備的互補,來實現不同場景下的智能應用。
在一般情況下,用户只需要調用 AirPods 的影像數據即可完成如導航、資料查詢等工作,而在需要更高精度的影像數據時,Apple Watch 就可以提供額外的幫助。我甚至懷疑在蘋果的設想中,未來某一天是否會讓 iPhone 徹底成為一個歷史名詞,試想一下,如果蘋果再用 AR 眼鏡解決影像顯示需求,iPhone 還有存在的必要性嗎?
屆時,或許 iPhone 會變成另外一樣東西,比如一個随身的本地算力終端,所有的硬體都是為内置的高性能 AI 芯片服務,這個終端甚至不需要螢幕。Apple Watch、AirPods 和 Apple AR Galss(搭配智能指環),可以提供不同場景下的多種實時互動體驗,這遠比在一個玻璃螢幕上用手指劃來劃去要輕松、便捷許多。
當然,目前為止,這都只是基于蘋果的相關專利與產品布局,所做的一個瘋狂猜想,事實上想要實現這樣的宏偉藍圖,我們恐怕需要在半導體等多個行業上都取得巨大的進步。
而且,基于空間計算設備的智能生态,如今也依然處于萌芽階段,至少在短時間内,iPhone 等手持智能終端,依然會是整個移動智能生态的核心。