今天小編分享的科學經驗:AI學語言與人腦極為相似!新研究證明:語言并非人類與生特有的能力,機器也能學,歡迎閲讀。
人工神經網絡(ANN)的學習方式,竟然與人腦極為相似!
你沒聽錯,至少在處理語言這塊上,機器似乎更像人了。
先看下面這張圖:
藍色代表的是人的腦電波信号,紅色代表的是人工神經網絡信号。
而這是人腦和機器聽同一個語音時所作出的反應。
是不是非常相似,有木有被驚到?
實際上這張圖來源于最近的一項研究,相關論文已被發表在了 Nature 子刊 Scientific reports 上。
而此前,關于人的大腦以及機器的大腦是如何進行學習的問題,始終是一個謎。
" 神經網絡的學習方式是否與人類相同 " 這個話題,也一直存在争議。
所以到底有什麼證據可以證明,人類和機器 " 很可能是以類似的方式處理語言 "?
人工神經網絡信号與人腦電波信号非常匹配
為了揭開人工神經網絡學習的神秘面紗,加州大學伯克利分校的計算語言學家 Ga š per Begu š 與約翰霍普金斯大學的博士生 Alan Zhou、華盛頓大學神經科學家 Christina Zhao 進行了這項研究。
在這項研究中,他們給人類聽一種簡單的聲音,然後收集人類聽到聲音後產生的腦電波。同時,将同一種聲音輸入到神經網絡中,分析神經網絡所產生的信号。
對兩者進行比較,結果竟然出奇相似。
最重要的是,研究人員測試了适用于各種任務的通用神經元組成的網絡,即使是非常通用的網絡 ( 對語音或其它聲音沒有偏見 ) ,仍然展現出與人類神經編碼的對應關系。
那這項研究具體是怎樣進行的呢?
首先,為了更好地對比人類大腦與人工神經網絡的反應情況,研究人員分别找來了 14 名説英語的人和 15 名説西班牙語的人。
然後對這些人播放了一個單音節音頻—— "bah",每次播放 8 分鍾,重復兩次。
在播放的過程中,研究人員記錄了每個聽眾腦幹中神經元平均電活動的波動情況(腦幹是大腦中最先處理聲音的部分)。
另外,研究人員将相同的 "bah" 聲音輸入到兩組不同的神經網絡中。其中一組神經網絡是經過英語訓練的,另一組是經過西班牙語訓練的。
研究人員選擇的神經網絡結構是生成式對抗網絡(GAN)。
GAN 最早在 2014 年被提出,用于生成影像。GAN 由兩個模塊組成,分别是判别器(discriminator)和生成器(generator),它們之間相互博弈學習,可以產生更好的輸出。
具體來説,生成器創建一個影像或聲音的樣本,判别器确定它與訓練樣本的接近程度并提供反饋,導致生成器再次反應,如此循環,直到 GAN 能夠輸出期望的結果。
而在這項研究中,判别器最初是在一系列英語或西班牙語的聲音上進行訓練的。
然後,從未接受過這些聲音訓練的生成器必須找到一種產生它們的方法。它開始制造随機的聲音,經過約 40,000 次與判别器的互動後,生成器逐漸產生了正确的聲音。經過這種訓練,判别器也變得更善于區分真實聲音以及生成的聲音。
在判别器經過訓練之後,研究人員就開始播放 "bah" 的聲音。它們測量了判别器人工神經元的平均活動水平的波動,記錄了神經網絡的處理活動,重點關注了網絡中用于分析聲音的人工神經元層(以模拟腦幹讀數)。
将采集到的人腦電波信号與人工神經網絡信号進行比較,結果見下圖:
△使用英語的實驗結果:藍色是人腦電波,紅色是人工神經網絡信号
△使用西班牙語的實驗結果:藍色是人腦電波,紅色是人工神經網絡信号
可以發現,這些人工神經網絡信号與人腦電波信号非常匹配!
這也就説明了這兩個系統正在進行類似的活動。
此外,這項實驗還揭示了人類和機器之間的另一個有趣的相似之處。腦電波顯示,説英語和説西班牙語的測試者對 "bah" 聲音有不同的聽覺感知(説西班牙語的人更多地聽到了 "pah" 的聲音)。
而 GAN 的信号也顯示出了:接受英語訓練的網絡在處理聲音時,與接受西班牙語訓練的網絡有些不同。
" 而這些差異是朝着同一個方向產生的,"Begu š 解釋道。
説英語的人的腦幹對 "bah" 聲音的反應比説西班牙語的人稍微早一些,而受過英語訓練的 GAN 對相同的聲音的反應也比受過西班牙語訓練的模型稍微早一些。
人類與機器的這種反應時間上的差異幾乎是相同的,大約是千分之一秒。
這也為 Begu š 提供了額外的證據,即人類和人工網絡 " 很可能是以類似的方式處理語言。"
喬姆斯基錯了?
這項研究的結論,實際上與上世紀 50 年代語言學家喬姆斯基(Noam Chomsky)提出的 " 人類天生就具有理解語言的能力,這種能力與人腦是硬連接(hard-wired)" 的觀點相違背。
此外,喬姆斯基還提出了普遍語法(Universal Grammar)概念,即人腦普遍有一種語言習得機制,使人們能夠學會使用語言。
難道,喬姆斯基的觀點是錯誤的?
對此,有網友表示:
ChatGPT 已經證明了學習語言以及理解語言并不需要語法。
也有網友保持懷疑态度:
人腦和神經網絡并不是一回事,我們應該對通過研究神經網絡的計算時間來研究人腦保持懷疑。
此外,該神經網絡已經用人類語言進行了訓練,所以這個説法也不能從觀察到的時間推斷出來。
Begu š 則表示:這場辯論尚未結束。
△Ga š per Begu š
他表示自己還将進一步探索人腦和神經網絡之間的相似之處,例如,他正在測試大腦皮層發出的腦電波(在腦幹完成其部分聽覺處理後)是否與 GAN 更深層產生的信号相對應。
他們希望最終能夠開發一個可靠的語言習得模型(language-acquisition model),用來描述機器和人類如何學習語言,從而進行在人類實驗對象中無法進行的實驗。
Begu š 研究團隊成員,華盛頓大學的神經科學家 Christina Zhao 表示:
例如,我們可以創造一個不良的環境,比如一個被忽視的嬰兒,然後觀察是否會導致類似語言障礙的情況。
此外,Begu š 還説正在嘗試看看這條路能夠走多遠,通用神經元能夠多接近人類語言。
我們能否通過擴大和增強我們的計算架構,讓其性能達到與人類相當的水平,或者能夠證明這永遠是不可能的。
在我們确切知道這個問題之前,還需要做更多的工作。但我們對這些系統的内部運作,對人類和人工神經網絡的相似之處,依然感到非常驚訝。
對于人腦與人工神經網絡你有什麼看法?
傳送門:
[ 1 ] https://www.nature.com/articles/s41598-023-33384-9(論文鏈接)
參考鏈接:
[ 1 ] https://www.quantamagazine.org/some-neural-networks-learn-language-like-humans-20230522/