今天小編分享的互聯網經驗:具身智能:通向人類智慧的未來之路,歡迎閱讀。
圖片來源@視覺中國
文 | 追問nextquestion
随着AI技術的進展,ChatGPT等基于大語言模型的聊天機器人已成為我們解決問題的首選。但當我們提出非常私人化、具象化及場景化的問題時,它們給出的答案往往不盡人意。
比如,當詢問"我想要學遊泳,你能給我一些建議嗎?"時,ChatGPT只能提供一些通用的建議,如"呼吸技巧"或"如何讓身體浮起來"。這些回答沒有針對用戶的具體情況,只是泛泛而談。但假如有一個教練朋友親自陪你到泳池,向你演示如何在水下屏氣,并托住你的腰讓你平躺在水面上,告訴你應該如何控制身體以實現浮起,這是否才是你更想要的答案?
這正是"具身智能體"(Embodied Agent)的價值所在,它強調我們不僅要讓計算機程式變得聰明,還要讓它們像人類一樣與真實的物理世界進行緊密的互動。如此,我們才能實現具備人類智能水平,且更接近人類的通用人工智能(AGI)。
AI為什麼要有具身智能?
為何我們要追求那種與物理世界緊密互動、且更接近人類的人工智能?将人工智能當作好用、便捷的工具難道還不夠嗎?
這一追求源于人類對智能的根本期待:我們希望它們不僅能高效地執行如學習、問題解決和模式識别等復雜任務,從而幫助人類去做不願意,或是不擅長做的事;我們還希望它們能理解人類的思維方式、行為習慣、情感表達,甚至性格偏好和心理特點,真正實現"懂你"的高階能力。更何況,從人性的角度來說,人類本能地會對更自然、更親近于自己的事物有好感,而對純粹機械化、缺乏情感的冰冷工具懷有拒斥之心。
1950年,圖靈在其論文中首次提出了人工智能的基本概念,并提出了著名的"圖靈測試",用以判斷機器是否能模拟人類智能。同年,阿西莫夫在他發表的短篇集《我,機器人》中描繪了一個人與AI共處的未來世界,并提出了機器人三大定律。因此,自人工智能概念誕生之初,人類就相信并呼喚着一種能以人類語言交流并理解我們的AI——它不僅能在生活中陪伴我們,還受到倫理道德的約束,最終被人類的情感和性格所引導。
這樣看來,當我們讨論"智能"時,實際上是期望AI超越單純的計算機器,成為一種與人類智能匹敵、擁有創造性思維和感知能力的高級生命體。具身智能則代表了這一願景的實現路徑。
具身智能何以像人?
這麼說來,具身智能應如何實現更像人的AI呢?
我們首先需要理解傳統人工智能的局限性。目前的AI系統主要依賴于收集的互聯網影像、視頻或文本數據進行學習。這些數據集雖然制作精良,但它們終究是靜态的,是通過人類整理和數據标注的方式實現的。這使得AI在處理信息時缺乏與環境的交流及互動。AI并不能理解其表達背後真正的邏輯思考路徑,更不用說自主反思并自我成長了。因而除依葫蘆畫瓢外,AI自發制造的數據往往與實際情況不符,常常"胡說八道"。這也是傳統AI被稱為"弱"智能的主要原因。
為此,一些學者立足于人類嬰兒認知的研究,從人類智能的發展過程中得到啟示,他們認為,真正的智能來源于與周圍環境的不斷互動和反饋。正如人類嬰兒通過與環境的感知和物理互動,來發展認知能力一樣,智能的真正發展需要超越處理抽象信息,深入理解和應對現實世界中的復雜情境。而這正是具身智能概念的出發點。
具體來說,具身智能是一種基于物理身體進行感知和行動的智能系統,其通過智能體與環境的互動獲取信息、理解問題、做出決策并實現行動,從而產生智能行為和适應性。斯坦福大學的李飛飛教授曾經指出,"具身的含義不是身體本身,而是與環境互動以及在環境中做事的整體需求和功能。"同樣,上海交通大學的盧策吾教授通過貓學習走路的比喻,形象地描述到,"自由行動的貓是具身的智能,它能夠在環境中自主行動,從而學會行走的能力;而被動觀察世界的貓,最終卻失去了行走的能力。"
與基于靜态數據集訓練的傳統AI不同,具身智能能實時地在真實物理世界中學習和互動,從而能更好地模拟人類學習的方式。它們能像人一樣,通過與環境的實際互動獲取知識和經驗,理解人類的實時反饋和行為,進而掌握非語言的溝通方式,如通過表情和觸摸來感知和體驗人類的情感表達。這種深度的人機互動和理解,使具身智能成為一種更貼近人類認知和情感的智能形态,有望實現更深層次的人機互動和共融。
具身智能如何做到更像人?
主動性
作為具身智能的核心特征之一,主動性賦予了智能系統超越被動信息處理工具的能力,讓它們成為積極的參與者。
在Metin Sitti 2021年的論文Physical intelligence as a new paradigm中,他指出,在具身的物理智能層面上,柔性系統可以對環境刺激做出響應……然後根據身體部位與環境條件的自我定位、自我運動和自我感知(本體感覺)得出自我定位,并将其轉化為後續行動。這意味着具身智能不僅能感知環境,還能根據感知進行自主的行動。另一篇論文Embodied Intelligence in Physical, Social and Technological Environments同樣采用相似的方法定義具身智能:當一個生命在各種感官信息的基礎上,自主地對環境采取行動,在這樣做的過程中,能夠将自己作為一個多感官的積極主動的自我,從而與環境中正在發生的事情區分開來,并加以調節時,它就擁有了具身智能。
這種主動性可以通過一個簡單的比喻來理解:當你走進圖書館,遇到一個傳統的管理員時,他或許會根據你的請求給到你想要的答案,如一個書名及對應位置。但如果這位管理員是一個具備具身智能的導覽顧問,它不僅能夠找到你需要的信息,還會主動引導你,找到書籍,并給你講解相關知識,帶你深入了解整個知識的世界。
這種互動方式類似于與一個熱情、友好的夥伴一起探索知識,而不僅僅是從一個冷漠的知識助手那裡得到答案。具身智能通過主動性,提供了一種全新的互動體驗,這不僅能夠增強人類對信息的獲取和理解,還能加深人類與智能系統之間的情感和認知聯系。
盡管目前的具身智能還未完全實現主動性和熱情互動,但以視覺導航的快速發展為例,在如iGibson Sim2Real、Habitat和RoboTHOR等挑戰賽中,我們已經見證了這一領網域初步形态的湧現,這些成果已經超越了僅僅執行任務的冷漠機器。例如,結合人類先驗知識的導航系統能夠通過将這些知識以多模态輸入形式融入到深度強化學習框架中,如知識圖譜或音頻輸入,進而使AI能夠在未知環境中學習導航并尋找未見過的物體。
最新的視覺語言導航(VLN)技術致力于創建一種能夠通過自然語言與人類交流,并在真實3D環境中自主導航的具身智能。目前,該領網域已經利用多個數據集進行研究和開發,如REVERIE、R2R、CVDN、GELA、ALFRED、Talk2Nav、Touchdown等,同時也產生了一些創新的網絡架構,如輔助推理導航框架。這些技術應用于機器導航、輔助技術和虛拟助手等領網域,尚處于初級階段。
此外,VLN的拓展視覺對話導航,旨在訓練AI與人類進行持續的自然語言對話,以輔助導航。在這個領網域,研究者們使用了一種跨模态記憶網絡(CMN),該網絡分别擁有語言和視覺記憶模塊,用于記憶和理解與過往導航動作相關的信息,并利用這些信息來作出導航決策。
實時性
實時性是具身智能另一個核心特性,它使得智能系統能夠在真實世界中及時學習并迅速反饋。具備實時性的具身智能能夠在接收到新信息或遇到新環境時立即做出響應。與此相比,傳統的人工智能依賴于預訓練的數據,在面對實時變化的環境時難以快速反應。
以電視節目為例,觀看錄播的魔術表演就像是與傳統AI的互動:雖然内容精彩,但你只能被動地觀看預先錄制的内容,不能實時中斷或更改節目内容。相比之下,觀看現場直播的魔術秀則更類似于與具身智能的互動:你可以實時提出需求,魔術師則根據這些需求在現場即興表演,就好像在為你個人定制節目一樣,你不再是一個被動的觀眾,而是整個魔術秀的一部分。這種互動方式不僅更加個性化,也更具參與感。
故而,和現場表演的魔術師一樣,具身智能能夠即時響應人類的需求和環境變化,提供更為貼合實際情況的解決方案,并以更貼近于人際交往的方式與人類互動。這種實時性幫助它更好地融入人類的日常生活,成為一個更加智能和有用的伴侶,而不僅僅是一個執行預設任務的機器。
在論文LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models中,研究團隊提出了LLM-Planner方法。這種方法利用大型語言模型的能力,能為具身智能進行少樣本規劃,并通過物理基礎來增強語言模型,從而生成和更新與當前環境相關的計劃。其優勢在于它能夠實時反映和适應環境的變化,為具身智能的決策提供即時的信息和指導。
情境性
除主動與實時之外,具身智能對特定的場景和情境的反饋應該有深入的感知和個性化的理解。
就像人類在與周圍環境互動中實時調整自己的行為一樣,具身智能應該通過實時學習和反饋,深刻地理解所處的情境,并據此調整其行為。它能夠根據上下文和環境的變化靈活地調整回應方式,融入當前的情境中,從而實現更自然和有效的交流。例如,具身智能能夠感知用戶的情緒變化,并據此提供個性化的體驗,增強用戶的參與感和滿意度。
以旅遊規劃為例,傳統的聊天智能可能僅能提供固定的行程建議,而不管雨雪風霜,甚至有可能在雷暴雨的天氣,依然為用戶安排露天溫泉的行程。具身智能則能夠根據用戶的個人偏好、當地環境和天氣狀況等因素提供更加貼合實際的建議。它更像一位熟悉當地情況的私人旅行顧問乃至私人攝影師。它不僅知道你的目的地,還熟知周圍的情境,了解環境變化;能夠根據你的私人偏好和當地時令,帶你去合适的小館子就餐,并記錄下你每個快樂時刻的印記。
目前已經存在大量逼真且公開泛用的3D場景,可以作為具身智能訓練的模拟環境。針對具身導航的虛拟環境有iGibson、Habitat、MultiON、BEHAVIOR等;針對具身問答的有ALFRED;關注情景理解、物體狀态和任務規劃的環境有AI2-THOR、ThreeDWorld、Habitat 2.0等;關注物體操縱的有SAPIEN、RLBench、VLMbench、RFUniverse、ARNOLD等;物體抓取及操縱信息數據集包括GraspNet、SuctionNet、DexGraspNet、GAPartNet等。這些場景比以往研究模拟器所用的環境要真實得多,極大地促進了具身智能在情境性的初步開發。
此外,傳感領網域的技術進步,也為情境性的具身智能發展提供了可靠保障。例如,PaLM-E團隊提出了具體化的語言模型,将真實世界的連續傳感器模态直接結合到語言模型中,從而建立單詞和感知之間的聯系。這種模型的輸入是多模态語句,它們将視覺、連續狀态估計和文本輸入編碼交織在了一起。結合預訓練的大型語言模型,對這些編碼進行端到端訓練,可用于多個具體任務,如順序機器人操作規劃、視覺問題解答和影像視頻字幕描述,有效地構建了單詞和感知之間的聯系。
拟生物
較之一般的人工智能,具身智能需要應對復雜的環境,并被要求以更接近人類的認知方式來與現實世界共處,這就使得它體現出了更多的模仿生物的特征。
就像蜜蜂群體協同工作以建造蜂巢,具身智能中的多個智能體能夠共同協作,產生超越單個智能體能力的集體效應。這種群體協作不僅超越了單個智能體的能力,還展示了復雜系統中的湧現現象。在這些系統中,個體智能體的簡單行為和互動,可能導致整個系統出現復雜的行為模式和結構形态,使得系統能夠适應新的環境和任務,而無需依賴預先設定的編程規則。
此外,具身智能系統中的自組織性是其拟生物特性的關鍵部分。智能體能夠根據環境變化和相互作用動态地調整自己的行為和結構,形成更高級别的功能和結構,從而使系統具有更強的魯棒性和适應性。
具身智能的這些特性在多種應用中得到了體現。有研發團隊專門設計了一種水下軟體機器人,其靈感來源于細菌的形态。這種生物啟發的模塊化結構使機器人能夠在水下環境中執行多種任務。這種機器人利用其周圍的環境(水)、目标的形狀以及機器人本身的順應性,通過少量的控制輸入來實現有效的導航和安全互動。這種建模方法和設計不僅展示了具身智能在模仿生物體方面的創新,也體現了它在實際應用中的多功能性和适應性。
總之,具身智能領網域的技術發展呈現出多樣化和綜合化的趨勢,特别是在觀察、操縱和導航等方面的進步尤為顯著。這些技術的發展不單單針對具身智能的某個特定特性,而是綜合了多方面的功能和能力,以實現更高的适應性和靈活性。
通過結合機器人的傳感器數據和一般的視覺語言數據進行聯合訓練,特别是利用大語言模型的強大内在知識,可以幫助具身智能在面對復雜和未知的真實世界環境時,進行有效的動态學習和泛化。例如,LLM-based Agent(基于大語言模型的智能體)以其獨特的語言能力為優勢,不僅作為與環境互動的工具,還能将基礎技能轉移到新任務上,從而使機器人能夠根據人類的語言指令适應不同的操作環境。
此外,通過嵌入式行動規劃,利用高層策略指導低層策略的子目标,從而使低層策略生成适當的行動信号,可以使機器人在執行任務時更加高效和可控。這種策略的應用可以使具身智能在處理復雜任務時更接近人類的決策模式。為了更有效地完成導航和其他復雜任務,具身智能還需要内存緩衝區和總結機制,以便參考歷史信息并更好地适應未知環境。
近年來,谷歌公司的Everyday Robot項目SayCan系統,已經将機器人和對話模型結合,完成一個包含16個步驟的長任務;伯克利的LM Nav項目,則用三個大模型(視覺導航模型ViNG、大語言模型GPT-3、視覺語言模型CLIP)教會了機器人在不看地圖的情況下按照語言指令到達目的地;上文提到的谷歌與柏林工業大學推出的PaLM-E模型更是在具身智能的多模态理解和執行方面取得了顯著的進展。
能夠發現,具身智能的技術發展正邁向一個更加綜合、靈活且高效的方向。這些技術的融合和發展,不僅提高了智能系統的适應性和實用性,也為未來的智能系統設計和應用開辟了新的路徑。随着技術的不斷進步,我們可以期待具身智能在更多領網域的實際應用和創新突破。
人工智能與人類智能的關系
為了深入理解人工智能(AI)和人類智能(Human intelligence,HI)之間的差異,并探索如何縮小這一差距,結合對具身智能特性的考量,Shanda AI Lab LEAF團隊提出了五性原則,以對照分析AI的發展方向(在後續的"智能漸近線"系列報告中,我們會不斷擴充五性的内容)。這些原則不僅與具身智能的四大特性相互呼應,還深入探讨了AI發展的關鍵方面,以期望使AI更接近于人類智能的復雜性和适應性。
1)邏輯性
AI應具備類似于人類大腦的邏輯思考和理解能力。具體來說,就是AI能夠在復雜的社交場景中,結合已有的各種知識儲備進行綜合運算及推理,理解語義及語義背後的復雜内涵,最終給出相應的輸出。
2)感知力
AI需要具有強大的感知能力,能識别和關聯多種信号,并能進行類似于人類的想象和通感。它不僅能夠理解聊天輸入,同時也能處理多種類型的輸入信息;能夠像人一樣,快速地對周圍環境的變化和各種刺激做出迅速的反應。
3)實時性
AI系統可以做到信息的實時更新、随時取用、随環境而反饋;它可以學習人類的記憶模塊的能力,通過上下文學習和情境學習等方式,從有限的實時信息中進行類比學習,理解新的任務。
4)主動性
AI能夠靠積極主動的、有目的性的行為,來完成類似于人類執行功能的事物處理能力,包括設定目标、規劃流程、分解任務、使用工具方法、管理時間和組織安排等方面;這也就意味着AI需要在真實環境中學習大量實際的經驗,并對上下文和具體情境能夠有實時調整的能力,進而可以依據實際的場景自主決策,靈活安排并主動互動。
5)适應性
AI具備主動感知和理解世界的能力,以及能夠與環境進行雙向的、動态的互動;這種适應性不僅限于機器對輸入的響應,還包括系統能夠根據内部知識做出合适的決策,并通過特定的行為來改變周圍的環境;在社會學意義上,意味着人工智能能夠以近似人類的方式與世界進行深度互動,并理解世界的復雜性。
顯而易見,要想讓人工智能更接近人類智慧,其先決條件是讓人工智能理解并學習人類認知世界的方式,進而以類似人類思考決策的方式去行動。
作為典型的強智能體,人類在成長過程中較少的依賴當前深度學習中采用的監督學習範式。相反,人類關鍵性技能的發展,如行走、使用工具、學習新的技能,都依賴于身體力行的嘗試。同樣,具身智能通過與環境的互動,雖然面臨第一視角得到數據的不穩定,但它能夠通過類似人類的中心感知方式來學習,并真正地在實際環境中應變和理解,從而從視覺、語言和推理過渡到人工具身(Artificial Embodiment)。
具身智能的發展
近年來,"具身智能"逐漸成為熱門的研究方向,吸引了計算機視覺、自然語言處理和機器人等眾多領網域的研究興趣。自2017年第一屆機器人學習大會CoRL(Conference on Robot Learning)召開以來,我們見證了機器人學習領網域的快速發展,包括大量新的智能任務、算法、環境的湧現。在接下來的幾年裡,特别是2018年和2019年的CoRL會議上,大量的具身智能學術任務開始被提出并受到關注,包括具身視覺導航、具身問答系統等。
到了2023年,CVPR 2023具身智能研讨會更是組織了AI Habitat、AI2-THOR、iGibson、Sapien仿真器的物體重排列、具身問答、具身導航和機器人操作挑戰賽。這些具身智能任務與其他線上AI任務具有完全不同的範式,即利用具身智能體(如機器人)"看"、"說"、"聽"、"動"、"推理"等方式,與環境進行互動和探索任務目标,從而解決環境中的各項挑戰性任務。
總結來看,人工智能學習并理解人腦的認知範式,進而接近于人的智慧,将是大勢所趨;而具身智能,尤其是模拟人類的具身智能,是人工智能趨向于人類智能的可行的高效捷徑。
參考資料:
1. "具身智能 | CCF專家談術語",作者:盧策吾、王鶴;https://www.ccf.org.cn/Media_list/gzwyh/jsjsysdwyh/2023-07-22/794317.shtml
2. "稚晖君獨家撰文:具身智能即将為通用機器人補全最後一塊拼圖",作者:稚晖君、甲子光年;https://www.thepaper.cn/newsDetail_forward_24392857
3. "李飛飛團隊發布"具身智能"成果:機器人接入大模型直接聽懂人話",作者:福布斯中國,https://new.qq.com/rain/a/20230711A03ZV000
4. "何為‘具身智能’?"作者:吳易明、梁晶;https://mp.weixin.qq.com/s/5alsxh4Vw15j_YrGMGfelQ
5. "為什麼說具身智能是通往AGI值得探索的方向?上海交大教授盧策吾深度解讀",作者:盧策吾、機器之心;https://mp.weixin.qq.com/s/MM_VLWmrrxev1zWuLKZZUQ
6. "《綜述:全新大語言模型驅動的Agent》——4.5萬字詳細解讀復旦NLP和米哈遊最新Agent Survey",作者:獸族機槍兵;https://zhuanlan.zhihu.com/p/656676717;
7. "The Rise and Potential of Large Language Model Based Agents: A Survey",作者:Fudan NLP Group、miHoYo Inc;https://arxiv.org/pdf/2309.07864v1.pdf;
8. "【漁夫關注】AI下一站——具身智能 正在走向現實",作者:愚漁娛魚;https://xueqiu.com/6253558369/250659786;
9. "具身智能綜述和應用(Embodied AI)",作者:上杉翔二;https://blog.csdn.net/qq_39388410/article/details/128264098;
10. "A Survey of Embodied AI: From Simulators to Research Tasks",作者:Jiafei Duan, Samson Yu, Hui Li Tan, Hongyuan Zhu, Cheston Tan;https://arxiv.org/abs/2103.04918
11. "LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models",作者:Chan Hee Song, Jiaman Wu, Clayton Washington, Brian M. Sadler, Wei-Lun Chao, Yu Su;https://arxiv.org/abs/2212.04088
12. "QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation",作者:Dmitry Kalashnikov, Alex Irpan, Peter Pastor, Julian Ibarz, Alexander Herzog, Eric Jang, Deirdre Quillen, Ethan Holly, Mrinal Kalakrishnan, Vincent Vanhoucke, Sergey Levine;https://arxiv.org/abs/1806.10293
13. "Review of Deep Reinforcement Learning for Robot Manipulation",作者:Hai Nguyen; Hung La等;https://ieeexplore.ieee.org/document/8675643
14. "PaLM-E: An Embodied Multimodal Language Model",作者:Danny Driess, Fei Xia, Mehdi S. M. Sajjadi, Corey Lynch, Aakanksha Chowdhery, Brian Ichter, Ayzaan Wahid, Jonathan Tompson, Quan Vuong, Tianhe Yu, Wenlong Huang, Yevgen Chebotar, Pierre Sermanet, Daniel Duckworth, Sergey Levine, Vincent Vanhoucke, Karol Hausman, Marc Toussaint, Klaus Greff, Andy Zeng, Igor Mordatch, Pete Florence;https://arxiv.org/abs/2303.03378
15. "Embodied Artificial Intelligence: Trends and Challenges",作者:Rolf Pfeifer, Fumiya Iida;https://www.semanticscholar.org/paper/Embodied-Artificial-Intelligence%3A-Trends-and-Pfeifer-Iida/4e3e2bbc38bbe239423c755d7682e647e8989358
16. "Embodied intelligence via learning and evolution",作者:Agrim Gupta, Silvio Savarese, Surya Ganguli & Li Fei-Fei;https://www.nature.com/articles/s41467-021-25874-z
17. "Systems Challenges for Trustworthy Embodied Systems",作者:Harald Rueß;https://arxiv.org/abs/2201.03413
18. "Embodied neuromorphic intelligence",作者:Chiara Bartolozzi, Giacomo Indiveri & Elisa Donati;https://www.nature.com/articles/s41467-022-28487-2
19. "From Machine Learning to Robotics: Challenges and Opportunities for Embodied Intelligence",作者:Nicholas Roy, Ingmar Posner, Tim Barfoot, Philippe Beaudoin, Yoshua Bengio, Jeannette Bohg, Oliver Brock, Isabelle Depatie, Dieter Fox, Dan Koditschek, Tomas Lozano-Perez, Vikash Mansinghka, Christopher Pal, Blake Richards, Dorsa Sadigh, Stefan Schaal, Gaurav Sukhatme, Denis Therien, Marc Toussaint, Michiel Van de Panne;https://arxiv.org/abs/2110.15245
20. "Embodied Intelligence in Physical, Social and Technological Environments",作者:Ilona Straub,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012024/meta
21. "Embodied Artificial Intelligence: Enabling the Next Intelligence Revolution",作者:Josie Hughes1, Arsen Abdulali, Ryman Hashem and Fumiya Iida,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012001
22. "A concise guide to modelling the physics of embodied intelligence in soft robotics",作者:Gianmarco Mengaldo, Federico Renda, Steven L Brunton, Moritz Bächer, Marcello Calisti, Christian Duriez, Gregory S Chirikjian, Cecilia Laschi;https://www.nature.com/articles/s42254-022-00481-z
23. "Catalyzing next-generation Artificial Intelligence through NeuroAI",作者:Anthony Zador, Sean Escola, Blake Richards, Bence Ölveczky, Yoshua Bengio, Kwabena Boahen等;https://www.nature.com/articles/s41467-023-37180-x
24. "Embodied intelligence weaves a better future",作者:Dongdong Jin & Li Zhang;https://www.nature.com/articles/s42256-020-00250-6
25. "Embodied Intelligence: Driving the digital transformation 2.0",作者:Volkmar Doericht,Markus Duchon, Cornel Klein & Ioana Olaru;https://www.researchgate.net/publication/371418945_Embodied_Intelligence_Driving_the_digital_transformation_20
26. "Human-in-the-loop Embodied Intelligence with Interactive Simulation Environment for Surgical Robot Learning",作者:Yonghao Long, Wang Wei, Tao Huang, Yuehao Wang, Qi Dou;https://arxiv.org/abs/2301.00452
27. "A Survey of Embodied AI: From Simulators to Research Tasks",作者:Jiafei Duan, Samson Yu, Hui Li Tan, Hongyuan Zhu, Cheston Tan;https://arxiv.org/abs/2103.04918
28. "Swarm Intelligence and Cyber-Physical Systems: Concepts, Challenges and Future Trends",作者:Melanie Schranz, Gianni A. Di Caro, Thomas Schmickl,Wilfried Elmenreich等;https://www.sciencedirect.com/science/article/abs/pii/S2210650220304156
29. "Embodied Intelligence & Morphological Computation in Soft Robotics Community: Collaborations, Coordination, and Perspective",作者:S.M. Hadi Sadati, Marwa ElDiwiny, Surya Nurzaman, Fumiya Iida and Thrishantha Nanayakkara,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012005
30. "Embodied AI beyond Embodied Cognition and Enactivism",作者:Riccardo Manzotti,https://www.researchgate.net/publication/334515423_Embodied_AI_beyond_Embodied_Cognition_and_Enactivism
31. "Artificial Pain May Induce Empathy, Morality, and Ethics in the Conscious Mind of Robots",作者:Minoru Asada,https://www.semanticscholar.org/paper/Artificial-Pain-May-Induce-Empathy%2C-Morality%2C-and-Asada/8d7af638f1ee26744c0a52e054692b9e5840eed5
32. "Interaction Histories and Short-Term Memory: Enactive Development of Turn-Taking Behaviours in a Childlike Humanoid Robot",作者:Frank Broz,Chrystopher L. Nehaniv,Hatice Kose & Kerstin Dautenhahn;https://arxiv.org/abs/1202.5600
33. "Nonconscious Cognitive Suffering: Considering Suffering Risks of Embodied Artificial Intelligence",作者:Steven Umbrello & Stefan Lorenz Sorgner;https://www.sciencegate.app/document/10.3390/philosophies4020024
34. "Rilkean Memories and the Self of a Robot",作者:Antonio Chella;https://www.researchgate.net/publication/332654686_Rilkean_Memories_and_the_Self_of_a_Robot
35. "Embodiment: The Ecology of Mind",作者:Paul Dumouchel;https://www.mdpi.com/2409-9287/4/2/12
36. "Enactivism and Robotic Language Acquisition: A Report from the Frontier",作者:Frank Förster,https://www.researchgate.net/publication/331619829_Enactivism_and_Robotic_Language_Acquisition_A_Report_from_the_Frontier
37. "The Problem of Meaning in AI and Robotics: Still with Us after All These Years",作者:Tom Froese & Shigeru Taguchi,https://philpapers.org/rec/FROTPO-14
38. "Embodied Intelligence in soft robotics: joys and sorrows",作者:Cecilia Laschi;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012002/meta
39. "Embodied Intelligence in Plants",作者:Barbara Mazzolai, Emanuela Del Dottore, Francesca Tramacere, Alessio Mondini and Laura Margheri;https://www.researchgate.net/publication/364570349_Embodied_Intelligence_in_Plants
40. "From bioinspired to biological robots, and back again",作者:Josh Bongard;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012004
41. "Bio-Inspired Robots Imitating Human Organs with Embodied Intelligence Behaviour",作者:Ryman Hashem, Weiliang Xu and Fumiya Iida;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012007
42. "Leveraging Embodied Intelligence for Dexterous Robotic Manipulators Through Iterative Co-design",作者:Kai Junge and Josie Hughes,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012009/meta
43. "Morphological Computation and Control Complexity",作者:Thomas George Thuruthel, Fumiya Iida,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012011/pdf
44. "Mechanical Sensing in Embodied Agents",作者:Matteo Lo Preti, Thomas George Thuruthel, Kieran Gilday,Lucia Beccai1, Fumiya Iida;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012013
45. "Robot swarms as embodied extensions of humans",作者:Jonas D Rockbach, Maren Bennewitz;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012015/pdf
46. "Embodiment in Dialogue: Daily Dialogue Android Based on Multimodal Information",作者:Takahisa Uchida, Takashi Minato and Hiroshi Ishiguro,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012016
47. "Benefits and Challenges of Morphological Adaptation in Real-world Robots",作者:Tønnes F. Nygaard and Kyrre Glette;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012017
48. "Taking Shape: A Perspective on the Future of Embodied Cognition and a new Generation of Evolutionary Robotics",作者:David Howard, Jack Collins and Nicole Robinson;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012018
49. "Meta-brain Models: biologically-inspired cognitive agents",作者:B Alicea and J Parent;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012019
50. "Embodiment and metaphorising in the learning of mathematics",作者:Jorge Soto-Andrade, Daniela Díaz-Rojas, Amaranta Valdés-Zorrilla;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012021/pdf
51. "What Could Models of Superorganismal Cognition Offer to Embodied AI?",作者:Edmund R. Hunt;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012023