今天小編分享的教育經驗:萬字長文:怎樣彌合人工智能和人腦智能的差距?,歡迎閲讀。
The following article is from 追問nextquestion Author 追問
來源 | 追問nextquestion,管理智慧
咨詢合作| 13699120588
文章僅代表作者本人觀點,圖片來源于pixabay
編者按:AI 中内部復雜性和外部復雜性之間的争論懸而未決,這兩種方法都可能在未來的進步中發揮作用。通過重新審視和加深神經科學和 AI 之間的聯系,我們可能會發現構建更高效、更強大、甚至更"類似大腦"的人工智能系統的新方法。
人工智能 vs 人腦智能
1. 早期人工智能模型是如何從對大腦的理解中獲得靈感的?
人工智能的早期發展得益于對人類大腦的理解。在20世紀中葉,随着神經科學的進展和對人腦功能的初步認識,科學家們開始嘗試将這些生物學概念應用于機器智能的開發中。
1943年,神經生理學家Warren McCulloch和數學家Walter Pitts提出的"McCulloch-Pitts神經元模型"是最早的嘗試之一。這一模型采用數學邏輯描述神經元的活動,雖然簡單,但為後來的人工神經網絡奠定了基礎。
▷圖1:神經元結構與McCulloch-Pitts神經元模型
這一時期,對大腦的研究主要聚焦在神經元如何處理信息,以及它們如何通過電信号在復雜網絡中相互作用。這些研究啓發了早期人工智能研究者設計出早期的人工神經網絡。
1950年代,Frank Rosenblatt發明的感知機(Perceptron),是一種受到生物視覺系統的啓發而設計的算法,它模拟視網膜接收光線的方式處理信息,雖然原始,但标志着機器學習領網域向前邁出了重要的一步。
▷圖2:左邊為Rosenblatt的物理感知機,右邊為感知器系統結構
除了神經科學的影響,早期的認知心理學研究也對AI的發展有所貢獻。認知心理學家試圖理解人類如何感知、記憶、思考和解決問題,這些研究為人工智能模拟人類智能行為提供了方法論基礎。例如,Allen Newell和Herbert A. Simon開發的邏輯理論機[1-3],能夠對數學定理進行證明,這一程式不僅模拟了人類的解決問題的過程,也在某種程度上模仿了人類思維的邏輯推理過程。
這些早期的模型雖然簡單,但它們的開發過程和設計理念深受(當時人們)對人腦的理解方式的影響,為後續更復雜系統的開發奠定了理論和實踐基礎。通過這樣的探索,科學家們逐漸構建出能在特定任務上模仿或超越人類表現的智能系統,推動了人工智能技術的演進和革新。
2. 人工智能的發展
自那以後,人工智能領網域經歷了一輪又一輪"寒冬"和"復蘇"。20世紀七八十年代,算力的提高和算法的創新,如反向傳播算法(back propagation)的引入,使得訓練更深層次的神經網絡成為可能。這一時期,人工智能雖然在某些領網域如專家系統(expert system)中獲得了商業成功,但由于技術的局限性和過高的期望值,最終導致了第一次AI寒冬的到來。
進入21世紀,特别是自2010年以後,人工智能領網域再次得到了前所未有的發展。數據量的指數級增長,高性能計算資源(如GPU)的普及和算法的進一步優化,使得深度學習技術迅速成為推動人工智能發展的主要動力。
深度學習的核心仍舊是模拟人腦神經元的信息處理方式,但其應用已經遠遠超越了最初的設想,涵蓋了影像識别、自然語言處理、自動駕駛車輛、醫療診斷等眾多領網域。這些突破性的進展,不僅推動了技術的進步,也促進了新的商業模式的出現和產業的快速發展。
▷Giordano Poloni
3. 目前人工智能和人腦智能的差别
3.1 功能表現方面的差别
盡管人工智能在特定領網域(如棋類遊戲、特定影像和語音識别任務)已能超越人類,但它通常缺乏跨領網域的适應能力。
雖然某些AI系統(如深度學習模型)在大數據環境中表現出色,但它們通常需要大量的标記數據與模型訓練,并且當任務或環境發生變化時,AI的遷移學習能力也較為有限,通常需要為之設計特定的算法。而人腦則具有強大的學習和适應能力,能夠在少量數據和多種環境條件下學習新任務,還能夠進行遷移學習,即可以将在一個領網域中學到的知識應用到另一個看似無關的領網域。
在處理復雜問題的靈活性方面,AI在處理定義清晰、結構化良好的問題時,如棋類遊戲、語言翻譯等,效果最佳;但在處理模糊不清、非結構化的問題時,效率較低,易受到幹擾。人腦在處理含糊不清、復雜的環境信息時,顯示出極高的靈活性和效率。例如,人腦能夠在嘈雜的環境中識别聲音、在缺乏完整信息的情況下做出決策等。
在意識和認知方面,當前的AI系統缺乏真正的意識和情感,它們的"決策"僅僅是基于算法和數據的輸出,沒有主觀體驗或情感的涉及。人類不僅可以處理信息,還擁有意識、情感和主觀體驗,這些都是人腦智能的重要組成部分。
在多任務處理方面,雖然某些AI系統能夠同時處理多種任務,但這通常需要復雜的針對性設計。大多數AI系統針對單一任務設計誕生,其進行多任務處理時的效率和效果通常不如人腦。人腦在同時處理多重任務時具有極大的靈活性,能夠在不同任務之間迅速切換并保持高效。
在能耗和效率方面,高級AI系統,尤其是大型機器學習模型,常常需要大量的計算資源和能源,能耗遠超人腦。人腦僅需約20瓦特即可運行,具有極高的信息處理效率。
總體來説,盡管人工智能在特定領網域已展示出卓越的性能,但它仍然無法全面模拟人腦,特别是在靈活性、學習效率和多任務處理等方面。未來的AI研究可能會不斷縮小這些差異,但人腦的復雜性和高效性仍是其難以超越的标杆。
▷Spooky Pooka ltd
3.2 底層機制方面的差别
在基礎結構方面,現代AI系統,特别是神經網絡,雖然受到生物神經網絡的啓發,但"神經元"(通常是計算單元)及其相互連接均依靠數值模拟。這些人工神經網絡的連接和處理通常都是預設的、靜态的,缺乏生物神經網絡的動态可塑性。人腦由大約860億個神經元組成,每個神經元通過數千到數萬個突觸連接與其他神經元相連[6-8],這種結構支持復雜的并行處理和高度動态的信息交換。
在信号傳遞方面,AI系統中的信号傳遞通常是通過數值計算實現的,例如在神經網絡中,神經元的輸出是輸入加權和的函數,這些加權和通常通過簡單的數學函數(如Sigmoid或ReLU)處理。神經信号傳導依賴于電化學過程,神經元之間的信息交流通過突觸釋放神經遞質進行,并受到多種生物化學過程的調控。
在學習機制方面,AI的學習通常通過算法調整參數(如權重)來實現,例如通過反向傳播算法。雖然這種方法在技術上有效,但它需要大量的數據,針對新的數據集需要重新訓練或顯著調整模型參數,與人腦的持續和無監督學習方式相比存在差距。人腦的學習依賴于突觸可塑性,即神經連接的強度根據經驗和活動而改變,這種可塑性支持持續的學習和記憶形成。
4. 模拟人類智能的長期目标——通用人工智能的背景和定義
通用人工智能(AGI)的概念提出,源于對狹義人工智能(AI)的局限性的認識。狹義AI通常專注于解決特定的、限定範圍的問題,例如棋類遊戲或語言翻譯,但缺乏跨任務和領網域的靈活性。随着科技的進步和對人類智能更深入的理解,科學家們開始設想一種類似人類的具備多領網域認知能力、自主意識、創造力和邏輯推理能力的智能系統。
AGI旨在創建一種智能系統,能夠像人類一樣理解和解決多領網域問題,并且能夠進行自我學習和适應。這種系統将不僅僅是工具,更是作為智能實體參與到人類的社會經濟、文化活動中。AGI的提出,代表了人工智能發展的理想狀态,期望最終能夠在全面性和靈活性方面達到并超越人類智能。
實現通用人工智能的路徑
多樣化的神經元模拟和網絡結構顯示出不同級别的復雜性。具有更豐富動态描述的神經元的内部復雜性較高,而具有更寬和更深連接的網絡的外部復雜性較高。從復雜性的角度來看,目前通常認為,有望實現通用人工智能的路徑有兩條,一種是外部復雜性大模型方法,例如通過增加模型的寬度和深度;另一種是内部復雜性小模型方法,例如通過向模型添加離子通道或将其轉換為多區室模型。
▷圖3:神經元和網絡的内部復雜性和外部復雜性
1. 外部復雜性大模型方法
在人工智能(AI)領網域,為了解決更廣泛和更復雜的問題,研究者們越來越依賴于大型AI模型的開發。這些模型通常具有更深、更大、更寬的網絡結構,可稱之為"外部復雜性大模型方法"。這種方法的核心,在于通過擴展模型的規模,來增強其處理信息(尤其是在處理大量數據)和學習的能力。
1.1. 大型語言模型的應用
大型語言模型,如GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)等,是當前AI研究中的熱點。這些模型通過深層神經網絡學習大規模文本數據,掌握語言的深層語義和結構,能夠在多種語言處理任務中展示出色的性能。例如,GPT-3通過訓練大規模的文本數據集,不僅能夠生成高質量的文本,還能進行問答、摘要、翻譯等任務。
這些大型語言模型的主要應用,包括自然語言理解、文本生成、情感分析等,因而可廣泛應用于搜索引擎、社交媒體分析、客户服務自動化等領網域。
1.2. 為什麼要擴展模型的規模?
根據Jason Wei、Yi Tay、William Fedus等人在Emergent Abilities of Large Language Models中的研究,随着模型規模的增大,模型的能力會出現"湧現"現象,即某些先前未明顯的能力會突然顯現。這是因為模型在處理更復雜、更多樣化的信息時,能夠學習到更深層次的模式和關聯。
例如,超大規模的語言模型能在未經特定針對性訓練的情況下,出現解決復雜的推理問題和創造性寫作的能力。這種"智能的湧現"現象表明,通過增加模型的規模,可以實現更接近人類智能的廣泛認知和處理能力。
▷圖4:大語言模型的湧現現象
1.3. 挑戰
盡管大型模型帶來了前所未有的能力,但它們也面臨着重大挑戰,尤其是在效率和成本方面。
首先,這類模型需要巨大的計算資源,包括高性能的GPU和大量的存儲空間,這直接增加了研究和部署的成本。其次,大模型的能耗問題也日益突出,這不僅影響模型的可持續發展,也引發了環保關注。此外,訓練這些模型需要大量的數據輸入,這可能引發數據隐私和安全性問題,尤其是當涉及到敏感或個人信息時。最後,大型模型的復雜性和不透明性可能導致模型決策過程難以解釋,這在應用于醫療、法律等需求高度透明和可解釋性的領網域時,可能成為一個嚴重問題。
2. 内部復雜性小模型方法
提到大語言模型,人們最直觀的感受便是其高度"類人"的輸出能力。Webb等人考察了ChatGPT的類比推理能力[3],發現它已湧現出了零樣本推理能力,能夠在沒有明确訓練的情況下解決廣泛的類比推理問題。一些人認為,如果像ChatGPT這樣的LLM确實能夠對心理學中的常見測量產生類似人類的響應(例如對行動的判斷、對價值的認可、對社會問題的看法),那麼它們在未來可能會取代人類受試者群體。
2.1. 理論基礎
神經元是神經系統的基本結構和功能部門,其主要組成部分包括細胞體、軸突、樹突和突觸。這些部分共同協作,完成信息的接收、整合和傳遞。以下将從神經元模型、電信号在神經元突起(樹突和軸突)中的傳導、突觸及突觸可塑性模型、帶有復雜樹突和離子通道的模型等方面講起,介紹神經元模拟的理論基礎。
▷圖5:神經元的結構
2.1.1. 神經元模型
離子通道
神經元的離子通道和離子泵是調控神經電信号傳遞的關鍵膜蛋白,它們控制着離子跨細胞膜的運動,從而影響神經元的電活動和信号傳遞。這些結構确保了神經元能夠維持或調節靜息電位、生成和傳遞動作電位,是神經系統功能的基礎。
離子通道是嵌在細胞膜中的蛋白質通道,它們可以調控特定離子(如鈉、鉀、鈣和氯)的通過。電壓變化、化學信号或機械應力等多種因素,控制這些離子通道的開閉狀态,從而對神經元的電活動產生影響。
▷圖6:神經元的離子通道和離子泵
等效電路
等效電路模型通過使用電路元件來模拟神經細胞膜的電生理性質,使得復雜的生物電現象可以在物理和工程的框架内得到解釋和分析。等效電路模型,通常包括膜電容、膜電阻、電源這3個基本元件。
神經元的細胞膜表現出電容性質,這與細胞膜的磷脂雙分子層結構有關。磷脂雙層的疏水核阻止離子自由通過,使得細胞膜具有很高的電絕緣性。當細胞膜兩側的離子濃度不同,特别是在在離子泵的調節下,細胞膜兩側會形成電荷分離。由于細胞膜的絕緣性,這種電荷分離在細胞膜上形成了一個靜電場,使得細胞膜能儲存電荷。
電容元件被用來模拟這種儲存電荷的能力,其電容值取決于膜的面積和厚度。膜電阻主要通過離子通道的開閉來調控,它直接影響膜電位的變化速度和細胞對電流輸入的響應。電源代表由離子泵產生的離子跨膜濃度差引起的電化學勢差,這是維持靜息電位和驅動動作電位變化的驅動力。
▷圖7:等效電路示意圖
HH模型
基于等效電路的思想,Alan Hodgkin和Andrew Huxley在20世紀50年代基于他們對烏賊巨神經元的實驗研究提出了HH(Hodgkin-Huxley)模型,模型中包括鈉(Na)、鉀(K)和漏電流(Leak Current)的電導,可以表示每種離子通道的開啓程度,在模型中離子通道的開閉進一步通過門控變量描述,這些變量(m、h、n)具有電壓依賴性和時間依賴性。HH模型的方程為:
LIF模型
LIF模型,即泄漏整合發放模型(Leaky Integrate-and-Fire model),是神經科學中一個常用的簡化神經元動作電位的數學模型。該模型側重于描述膜電位[4-5]随時間的變化情況,而忽略生物神經元内部的復雜離子動态。
科學家們發現,當給神經元施加持續的電流輸入[6-7]時,神經元的膜電位會随之上升,直到達到某個阈值致使動作電位發放,之後膜電位迅速復位,并重復這一過程。LIF模型雖然沒有描述具體的離子通道動态,但由于其計算效率高,廣泛應用于神經網絡建模和理論神經科學研究。其基本方程如下:
2.1.2. 電信号在神經元突起(樹突和軸突)中的傳導:電纜理論
19世紀末至20世紀初,科學家們開始認識到,神經元中的電信号可以通過軸突、樹突等細長的神經纖維進行傳播。然而,随着距離的增加,信号會發生衰減。科學家們需要一種理論工具來解釋電信号在神經纖維中的傳播過程,特别是在長距離上傳播時的電位變化規律。
1907年,物理學家赫爾曼(Wilhelm Hermann)提出了一個簡單的理論框架,将神經纖維比作電纜,以此描述電信号的擴散過程。這一理論後來在20世紀中葉由霍奇金和赫胥黎等人進一步發展,他們通過對神經元的實驗測量,确認了離子流在信号傳播中的關鍵作用,并建立了與電纜理論相關的數學模型。
電纜理論的核心思想是将神經纖維視為一段電纜,通過引入電阻、電容等電學參數,模拟電信号(通常是動作電位)在神經纖維中的傳播過程。神經纖維,如軸突和樹突,被視為一維的電纜,電信号沿着纖維長度傳播;膜電活動通過電阻和電容來描述,電流的傳導則受到纖維内部電阻和膜漏電電阻的影響;信号在纖維中的傳播,随着距離增加,逐漸衰減。
▷圖8.電纜理論示意圖
2.1.3. 多區室模型
在早期的神經元建模中,如HH模型和電纜理論模型,神經元被簡化為一個點狀的"單一區室",即只考慮膜電位在時間上的變化,而忽略了神經元各個部分的空間分布。這些模型适合描述動作電位的產生機制,但無法充分解釋信号在神經元復雜的形态結構(如樹突、軸突等)中的傳播特性。
随着神經科學對神經元結構復雜性的認識不斷加深,科學家們意識到:不同部分的電位變化會有顯著差異,尤其是在具有長樹突的神經元中。樹突和軸突中的信号傳播不僅受到電信号的空間擴散影響,還會因為結構復雜性而出現不同的響應。因此,需要一種更精細的模型來描述神經元中電信号的空間傳播,這就促使了多區室模型(Multi-compartmental model)的提出。
多區室模型的核心思想是将神經元的樹突、軸突和細胞體抽成多個相互連接的區室(compartments),每個區室使用類似于電纜理論的方程來描述跨膜電位随時間和空間的變化,通過多個區室的相互連接,模拟電信号在神經元内部的復雜傳播路徑,并反映不同區室之間的電位差異。這種處理方式可以精确描述電信号在神經元復雜形态中的傳播,特别是樹突上的電信号衰減和放大現象。
具體來説,神經元被抽成多個小區室,每個區室代表神經元的一部分(如樹突、軸突或細胞體的一段)。每個區室用電路模型表示,電阻和電容用以描述膜的電學特性,跨膜電位由電流注入、擴散和漏電等因素決定。鄰近區室通過電阻連接,電信号通過這些連接在區室間傳播。跨膜電位Vi在第i個區室中遵循類似于電纜理論的微分方程:
在多區室模型中,某些區室(如細胞體或起始區)可產生動作電位,而其他區室(如樹突或軸突)則主要負責電信号的傳播和衰減。信号通過不同區室之間的連接傳遞,樹突區的輸入信号最終可以整合到細胞體并引發動作電位,動作電位再沿着軸突傳播。
與單一區室模型相比,多區室模型能夠反映神經元形态結構的復雜性,尤其是在樹突和軸突等結構中的電信号傳播過程。由于涉及多個區室之間的耦合微分方程,多區室模型常需通過數值方法(如歐拉法或Runge-Kutta方法)進行求解。
2.2. 為什麼要進行生物神經元的復雜動态模拟?
Beniaguev等人的實驗研究表明,由于大腦不同類型神經元的復雜樹突結構和離子通道,單個神經元具有與5-8層深度學習網絡相媲美的非凡計算能力[8]。
▷圖9:包含AMPA和NMDA突觸的L5皮層錐體神經元模型,可以通過包含七個隐藏層的TCN(時間卷積網絡)來精确模拟,每個隐藏層有128個特征圖,歷史時長為153毫秒。
He等人的工作關注不同内部動态和内部復雜性的神經元模型之間的聯系[9]。他們提出了一種将外部復雜性轉換為内部復雜性的方法,這種内部動态更為豐富的模型具有一定的計算優勢。具體來説,他們在理論上證明了LIF模型和 HH模型存在動力學特性上的等效性,HH神經元可以與四個具有特定連接結構的時變參數 LIF神經元(tv-LIF)動力學特性等效。
▷圖10:一種從tv-LIF模型轉換到HH模型的方法
在此基礎上,他們通過實驗驗證了HH網絡在處理復雜任務時的有效性和可靠性,并發現與簡化的tv-LIF網絡(s-LIF2HH網絡)相比,HH網絡的計算效率顯著更高。這證明了将外部復雜性轉化為内部復雜性,可以提高深度學習模型的計算效率;也提示,受生物神經元復雜動态啓發的内部復雜性小模型方法,有希望實現更強大和更高效的AI系統。
▷圖11:LIF模型、HH模型、s-LIF2HH的計算資源分析
此外,由于結構和計算機制的限制,現有人工神經網絡與真實大腦差距較大,無法直接用于理解真實大腦學習以及處理感知任務的機理。相比人工神經網絡,具有豐富内部動态的神經元模型,更接近真實的生物,對理解真實大腦的學習過程和人類智能的機制有重要作用。
3. 挑戰性
盡管内部復雜性小模型方法在多個方面表現出色,但它也面臨着一系列挑戰。神經元的電生理活動通常通過復雜的非線性微分方程來描述,這使得模型的求解分析極具挑戰。由于神經元模型的非線性和不連續特性,使用傳統的梯度下降方法進行學習變得復雜和低效。此外,如HH模型等内部復雜性的增加,減少了硬體并行性,減慢了信息處理速度,因此需要硬體方面相應的創新和改進。
為了應對這些挑戰,研究者們開發了多種改進的學習算法。例如,使用近似梯度,解決不連續特性的問題;使用二階優化算法,更加精确地捕捉損失函數的曲率信息加速收斂。分布式學習和并行計算的引入,使得復雜神經元網絡的訓練過程可以在大規模計算資源下更高效地進行。
此外,生物啓發式學習機制受到一些學者的關注。生物神經元的學習過程與目前的深度學習方法有很大不同。例如,生物神經元依賴于突觸的可塑性來實現學習,這種機制包括了突觸強度的增強和減弱,稱為長時程增強(LTP)和長時程抑制(LTD)。這種機制不僅更加高效,還能夠減少模型對連續信号處理的依賴,從而降低計算負擔。
▷MJ
彌合人工智能和人腦智能的差距
He等人通過理論驗證和模拟證明了更小、内部復雜的網絡可以復制更大、更簡單的網絡的功能。這種方法不僅可以保持性能,還可以提高計算效率,将内存使用量減少四倍,并将處理速度提高一倍,這也表明提高内部復雜性可能是提高 AI 性能和效率的有效途徑。
Zhu和Eshraghian對He等人的文章Network model with internal complexity bridges artificial intelligence and neuroscience做出了評論[5]。他們認為,"AI 中内部復雜性和外部復雜性之間的争論仍然懸而未決,這兩種方法都可能在未來的進步中發揮作用。通過重新審視和加深神經科學和 AI 之間的聯系,我們可能會發現構建更高效、更強大、甚至更類似大腦的人工智能系統的新方法。"
當我們站在 AI 發展的十字路口時,該領網域面臨着一個關鍵問題:我們能否通過更精準地模拟生物神經元的動力學來實現 AI 能力的下一次飛躍,還是會繼續用更大的模型和更強大的硬體鋪平前進的道路?Zhu和Eshraghian認為,答案可能在于兩種方法的綜合,這也将随着我們對神經科學理解的加深而不斷優化改進。
盡管生物神經元動态的引入在一定程度上增強了AI的功能,但目前仍遠未達到對人類意識的模拟的技術水平。首先,理論的完備性依然不足。我們對意識的本質缺乏足夠的理解,尚未形成一個能夠解釋和預測意識現象的完整理論。其次,意識的模拟可能需要高性能的計算模拟框架,目前的硬體和算法效率仍無法支持如此復雜的模拟。此外,大腦模型的高效訓練算法依舊是一個難題。復雜神經元的非線性行為增加了模型訓練的難度,這需要新的優化方法來處理。大腦的許多復雜功能,例如長時間的記憶保持、情感處理和創造力,其具體神經機制和底層分子機制仍有待深入探索。如何在人工神經網絡中進一步模拟這些行為及其分子機制,依然是開放的問題。未來的研究需要在這些問題上取得突破,才能真正走向對人類意識和智能的模拟。
跨學科合作,對于人類意識和智能的模拟至關重要。數學、神經科學、認知科學、哲學、計算機科學等領網域的協同研究,将有助于更深入地理解和模拟人類意識和人類智能。只有通過不同學科的合作,才能形成更加全面的理論框架,推動這項極具挑戰的任務向前發展
[1] David Beniaguev, Idan Segev and Michael London. "Single cortical neurons as deep artificial neural networks." Neuron. 2021; 109: 2727-2739.e3 doi: https://doi.org/10.1016/j.neuron.2021.07.002
[2] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E.H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.
[3] 王超名, 陳嘯寧, 張秋, 吳思 (2023). 神經計算建模實戰:基于BrainPy. 電子工業出版社.
[4] He, L., Xu, Y., He, W., Lin, Y., Tian, Y., Wu, Y., Wang, W., Zhang, Z., Han, J., Tian, Y., Xu, B., & Li, G. (2024). Network model with internal complexity bridges artificial intelligence and neuroscience. Nature computational science, 4(8), 584–599. https://doi.org/10.1038/s43588-024-00674-9
[5] Zhu, R. J., Gunasekaran, S., & Eshraghian, J. (2024). Bridging the gap between artificial intelligence and natural intelligence. Nature computational science, 4(8), 559–560. https://doi.org/10.1038/s43588-024-00677-6
[6] Hindley, N., Sanchez Avila, A., & Henstridge, C.M. (2023). Bringing synapses into focus: Recent advances in synaptic imaging and mass-spectrometry for studying synaptopathy. Frontiers in Synaptic Neuroscience, 15.
[7] Azevedo, F., Carvalho, L., Grinberg, L., Farfel, J., Ferretti, R., Leite, R., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. J. Comp. Neurol. 513, 532–541. doi: 10.1002/cne.21974
[8] Obi-Nagata, K., Temma, Y., and Hayashi-Takagi, A. (2019). Synaptic functions and their disruption in schizophrenia: From clinical evidence to synaptic optogenetics in an animal model. Proc. Jpn. Acad. Ser. B Phys. Biol. Sci. 95, 179–197. doi: 10.2183/pjab.95.014