今天小編分享的科技經驗:Meta AI的這些新技術,讓機器人擁有“觸覺”,歡迎閲讀。
人工智能機器人發展到今天,其擁有「視覺」或者「聽覺」早已經見怪不怪。 畢竟,這兩種感官幾乎是人類感知物理世界最重要的渠道。
而 Meta AI 的基礎人工智能研究團隊(FAIR)近日公布的新技術,則為機器人賦予了「 觸覺」。對此,Meta 的願景是使 AI 能夠「更豐富地了解世界」并「更好地理解和模拟物理世界」。
毫無疑問,這些新技術讓機器人又多了一種與世界互動的方式,也讓其在「 類人」的道路上又向前了一步。
圖片來自:NewsBytes
關注愛範兒,發現下一個明日產品
Meta 正在與美國傳感器公司 GelSight 和韓國機器人公司 Wonik Robotics 合作,開發了一系列新技術,致力于将 觸覺傳感器商業化,并将其用于人工智能當中。
這些新技術包括三個研究工具——「 Sparsh」、「 Digit 360」和「 Digit Plexus」,專注于觸覺感知、機器人靈巧性和人機互動。此外,Meta 還引入了「 PARTNR」,這是一種新的基準測試,用于評估人機協作中的規劃和推理。
需要注意的是,這些新技術目前并未為消費者推出,而是面向科學家和研究人員的。
圖片來自:Techopedia
Sparsh 是第一個 用于基于視覺的觸覺感知的通用編碼器模型,由華盛頓大學和卡内基梅隆大學合作開發。
聽起來似乎有些抽象,既然是「觸覺」,為什麼又「基于視覺」呢?
實際上,傳統方法依賴于特定任務和傳感器的手工模型,其需要将物體的「 觸摸參數」(例如力量、摩擦等等)打包成「 感覺标籤」喂給機器人,相當于告訴機器人什麼是「輕輕地拿」或者「用力地推」。
然而這種方法比較麻煩,因為需要為每個不同的任務和不同的傳感器收集很多這樣的标籤數據。
Sparsh 則通過 自我監督學習(SSL)從經驗中自主學習,不需要告訴它每個動作對應的标籤。其在一個包含 460000 多個觸覺影像的大型數據集上進行預訓練,這就像是讓機器人看很多不同的物體和場景,然後自己學習如何識别和處理這些物體。
簡單來説,Sparsh 就像是讓機器人通過 看大量的圖片和視頻來自學如何「感覺」物體,而不是通過人工給它的「感覺」打标籤。這樣,機器人就更容易學會如何在不同的任務中使用不同的觸覺傳感器了。
有趣的是,「Sparsh」這個名字源自梵語,意為「 觸摸或接觸感官體驗」,這與它處理數字化觸覺信号并實現觸摸感知的功能非常貼切。
圖片來自:Meta
Digit 360 是由 Meta 與 GelSight 公司聯合開發的一種 人造手指形狀的觸覺傳感器,它通過以人類級别的精度對觸摸進行數字化,能夠提供豐富而詳細的觸覺數據。
Digit 360 配備超過 18 種傳感功能,允許研究人員結合各種傳感技術或者分離單個信号以深入分析每種模式。
它可以檢測空間細節的微小變化,能夠捕獲小至 1 毫牛頓的力,并且包含多種傳感模式,可以感知振動、熱量甚至氣味,性能明顯優于以前的傳感器。
Digit 360 觸覺傳感器(右). 圖片來自:Meta
Meta AI 團隊還為其開發了一種寬視場的觸摸感知專用光學系統,由超過 800 萬個傳感器單元(taxels)組成,用于捕捉指尖表面的全向變形。
此外,借助設備上的人工智能加速器,Digit 360 能夠快速處理信息,對觸摸刺激做出反應,可以充當機器人的周圍神經系統。這一設計的靈感來源于 人類和動物的反射弧。
顯然,除了提高機器人的靈活性以外,這款傳感器在醫學、假肢、虛拟現實和遠程互動等領網域都有廣闊的應用前景。
圖片來自:Meta
Meta 在博客中説道:
人手非常擅長向大腦發出從指尖到手掌的皮膚觸摸信息,這使得其在做出決定時能夠激活手部肌肉,例如如何在鍵盤上打字,或者與過熱的物體互動。實現嵌入式人工智能需要機器人手上的觸覺傳感和電機驅動之間的類似協調。
基于這個理念,Meta AI 與 Wonik Robotics 合作,提出并建立了一個 标準化軟硬體平台 Digit Plexus。
它允許将各種指尖和皮膚觸覺傳感器(例如 Digit、Digit 360 和 ReSkin)集成到一個機器人手中,并通過一根電纜将觸覺數據編碼并傳輸到主機計算機中,以實現無縫數據收集、控制和分析。
Plexus 系統的設計旨在簡化機器人應用的開發,特别是對于那些需要精細觸覺反饋的應用。通過使用 Plexus,開發者可以更容易地将觸覺傳感器技術集成到他們的機器人項目中,從而提高機器人的靈巧性和對物理世界的感知能力。
圖片來自:Techcrunch
值得一提的是,Meta 與 Wonik 的下一步合作重點是開發 Wonik 的 新一代 Allegro Hand,這是一款配備 Digit 360 等觸覺傳感器的 機器人手,它将在 Digit Plexus 平台上運行。
圖片來自:XELA
為了研究家庭活動中的人機協作,Meta 在 Habitat 3.0(一個用于研究家庭環境中人機協作任務的模拟平台)的基礎上,發布了 人機協作規劃和推理任務基準 PARTNR。
PARTNR 是同類中最大的基準,包含 100000 個自然語言任務,涵蓋 60 棟房屋和 5800 多個獨一無二的對象。該基準的目标是評估大型語言和視覺模型(LLMs / VLM)通過人機互動工具與人類協作的性能。
通過提供标準化基準和數據集,Meta 表示「希望它能使機器人的研究不僅能夠獨立運行,而且能夠圍繞人類運行,使它們更加高效、可靠,并且适應每個人的喜好」。
圖片來自:LinkedIn
讓機器人擁有「觸覺」,并不是一座「空中樓閣」。
這些機器人對外界變化擁有遠超人類的敏感度,配合高效的軟硬體協作系統,他們将會在 外科手術或者 精密儀器制造場景中大有用武之地。
其實,不僅「視覺」、「聽覺」和「觸覺」,賓夕法尼亞州立大學的研究人員已經在人工智能模型模拟出了「 味覺」;同時,一家名為 Osmo 的公司已經教會人工智能模型如何模仿遠優于人類的「 嗅覺」。
也許未來的機器人能夠在感官方面完全「復刻」人類。只是他們最好不要再擁有逼真的「人形」,否則,恐怖谷效應要犯了。
文|範津瑞