今天小編分享的科技經驗:現在AI沒意識,不代表以後沒有,歡迎閱讀。
來自:視覺中國
人工智能會發展出意識嗎?
今年年初 ChatGPT 的熱潮席卷全球的時候,這一度還是許多人關心的問題(另一個問題則是 AI 會不會讓自己失業)。不過這種恐懼和危機感,後來很快就被各種讓人眼花缭亂的大模型產品取代了,絕大多數人在焦慮未來和關注眼前之間選擇了後者。
不過 59 歲的 Yoshua Bengio 依然在關注這件事,就在當地時間本周二,包括他在内的一個 19 人團隊剛剛發布了一篇長達 88 頁的重磅論文,來論證現在的 AI 有無可能擁有意識。
論文地址:https://arxiv.org/pdf/2308.08708.pdf
Bengio 曾在 2018 年因深度學習的相關研究獲得圖靈獎,被認為是人工智能領網域先驅式的人物;論文的其餘作者也都是來自人工智能、神經科學和哲學領網域的教授和專家。
先看結論:這篇論文認為,目前并不存在擁有意識的 AI,但是以現有的技術條件,創造出有意識的 AI 基本不成問題。
光是一句話就足夠讓人汗毛豎立。這就好像,昨天我們還在說能在虛拟小鎮裡相安無事像人一樣過生活的 AI 智能體,明天這群 AI 智能體就開始想着小鎮外面有什麼、真正的人類世界是什麼樣之類的事了 ……
是福還是禍,我們不如先來看看這篇論文的研究方法。
首先必須指出的是,關于什麼是 " 意識 ",雖然每個人都能大概講出一些自己的理解,但在學界,意識的概念長達幾個世紀以來都存在不同的定義。哲學家、神學家、語言學家和科學家對這個概念進行了數千年的分析、界定、诠釋和辯論,但意識的本質仍然統一的認可、留有争議。
人工智能領網域對于人工意識的理解也經歷了漫長的演進。
20 世紀以來,以艾倫 · 圖靈為代表的行為主義者曾貢獻了這一領網域最具影響力的對意識的定義,也就是著名的 " 圖靈測試 " ——如果一個測試者對無法确認身份的兩個對象(一人、一機器)提出相同的一系列問題,得到的答案讓他無法區分究竟誰是機器,誰是人,那麼則認定機器通過圖靈測試,擁有意識。
行為主義的特點是,将意識解釋為一系列能被外部觀察到的行為,以行為來定義意識。但這種方法也被诟病忽略了心理現象,無法解釋智力。
功能主義後來取代行為主義,成為新的定義人工意識的主導思想理論。和行為主義相比,功能主義更關注大腦做了什麼以及大腦功能在哪裡起作用——如果有任何東西可以模仿特定的心理狀态與計算過程的因果作用,意識就是可以實現的。
功能主義也對事物如何工作、到底是由怎樣的材質組成等等外化體現不感興趣,就好比将任何能報時的東西都歸為時鍾一樣,而時鍾是什麼 制成的并不重要,只要它能報時就行了。
盡管功能主義也被認為存在無法體現事物的思考性等問題,但它依然是現在人工智能領網域較為主流的衡量 AI 是否存在意識的依據。
後來美國哲學家、計算機科學家 Hilary Putnam 又将功能主義與計算概念結合,提出了計算功能主義。簡而言之,計算功能主義認為,精神世界是基于一個使用諸如信息、計算(思考)、記憶(存儲)和反饋等概念的物理系統(即計算機)。
而 Bengio 等人此次發布的論文,對 AI 有無意識基礎的判斷依據正是計算功能主義。
基礎原則确定之後,接下來就進入到了更細致的 " 打分 " 環節。因為此前,學界對意識的研究已經有了一些公認的結果,比如科學家和哲學家對意識必要條件的主張等等,論文作者在研究中做的事情就是,從過往對意識研究的成果中選取一部分科學理論,作為判斷 AI 是否具有意識的更具體的評估依據和指标。
論文主要介紹了其中用到的循環加工理論(Recurrent Processing Theory,RPT),全局工作空間理論(Global Workspace Theory,GWT)和計算高階理論(Computational Higher-Order Theories,HOT)三種科學理論。
以循環加工理論(RPT)為例,研究者将這一理論具體拆抽成了 RPT-1 和 RPT-2 兩個指标:RPT-1 指 " 使用算法循環的輸入模塊 ",RPT-2 指 " 生成有組織、整合的感知表示的輸入模塊 "。
在衡量一個 AI 有無意識時,要做的就是将其性能和這些指标進行對照。
以下是論文中詳細列出的其他科學理論指标:
當然這一步并不是真的去給一個 AI 打分,而是要看這個 AI 能夠同時滿足以上多少指标。研究者同時也指出,判斷 AI 有無意識并沒有絕對的答案:
為了方便起見,我們通常把意識寫得好像是一個要麼全有要麼全無的問題。然而,我們對這種情況的可能性持開放态度:一個 AI 系統可能是部分有意識的,或者既不是完全有意識的,也不是完全無意識的。有許多屬性具有 " 模糊 " 的邊界,就像一件襯衫可能是介于黃色和綠色之間的一種顏色,這樣就沒有關于它是否是黃色的事實。
此外,論文中也提到此次研究使用了偏理論的研究方法。這其實也和計算功能主義的原則相對應,偏理論指的是去評估 AI 是否滿足科學理論指标中的功能或架構條件,而不是去尋找他們某些具體的行為特征," 對于 AI 意識研究來說,一種重理論的方法是必要的,重理論的方法是專注于系統如何工作,而不是它們是否顯示出可能被視為有意識存在特征的外在行為形式 "。
以上便是這篇論文用到的研究方法。
論文的下半部分也提到了一些具體的研究案例,來體現判斷特定的 AI 系統是否具有意識的研究過程,其中就包括了基于 Transformer 的大語言模型和 Perceiver 架構,還分析了 DeepMind 的 Adaptive Agent(一個在 3D 虛拟環境中運行的強化學習智能體)和谷歌的 PaLM-E(一個經過訓練可以操縱機器人的多模态視覺語言模型)。
不過最終結果顯示,這些 AI 系統并沒有體現出非常明顯的有意識的傾向。
研究者同時寫道," 我們研究的證據表明,如果計算功能主義是正确的,有意識的 AI 系統實際上可以在近期内建立起來。"
論文發表後,英偉達首席 AI 科學家 Jim Fan 第一時間便轉發了這一消息,并表示了他對研究團隊的敬佩,
" ‘意識’一直都是 AI 領網域大家諱莫如深的話題。這篇由圖靈獎得主 Yoshua Bengio 參與撰寫的 88 頁論文,是對意識科學理論以及當今人工智能堆棧中可能實現的系統調查,我贊揚他們有勇氣去解決這個大多數研究人員都會回避的争議性話題。"
事實上,作為世界級的人工智能專家和深度學習先驅,Bengio 近年來的研究課題許多都和人工智能的意識問題相關——
2017 年,他曾在 arXiv 上發布過一篇題為《意識先驗》(The Consciousness Prior)的文章;2019 年的 NeurIPS 大會上,他又發表了《從 System 1 深度學習到 System 2 深度學習》的主題演講,提出了一個在當時讓人印象深刻的觀點:深度學習正在從直觀的、無意識的靜态數據集學習,向具有意識、推理和邏輯的新型架構研究轉變。
而在今年 3 月,Bengio 也參與了那場轟轟烈烈的反對各家人工智能實驗室搞 AI" 軍備競賽 "、要求其暫停至少 6 個月比 GPT-4 更強大模型研發的運動,和其他超過千名的產業和學術大佬一起在公開信上籤了名;兩個月後,他又發表了一篇系統分析 " 危害人類的 AI 是如何出現的 " 的文章。
直到這次聯合發表這篇長達 88 頁的論文,Bengio 一直都在不遺餘力地做那個想要警醒大家 AI 的未來該向何處去的人。
就像這篇論文裡寫到的那句話," 這篇報告還遠未對這些(AI 有無意識的)話題給出最終定論。我們強烈建議支持對意識科學及其在 AI 中應用的進一步研究。我們也呼籲,社區應盡快将建立有意識的 AI 系統的道德和社會風險納入考量(盡管這并不是這篇報告所強調的主題)。"