今天小编分享的教育经验:万字长文:怎样弥合人工智能和人腦智能的差距?,欢迎阅读。
The following article is from 追问nextquestion Author 追问
来源 | 追问nextquestion,管理智慧
咨询合作| 13699120588
文章仅代表作者本人观点,图片来源于pixabay
编者按:AI 中内部复杂性和外部复杂性之间的争论悬而未决,这两种方法都可能在未来的进步中发挥作用。通过重新审视和加深神经科学和 AI 之间的联系,我们可能会发现构建更高效、更强大、甚至更"类似大腦"的人工智能系统的新方法。
人工智能 vs 人腦智能
1. 早期人工智能模型是如何从对大腦的理解中获得灵感的?
人工智能的早期发展得益于对人类大腦的理解。在20世纪中叶,随着神经科学的进展和对人腦功能的初步认识,科学家们开始尝试将这些生物学概念应用于机器智能的开发中。
1943年,神经生理学家Warren McCulloch和数学家Walter Pitts提出的"McCulloch-Pitts神经元模型"是最早的尝试之一。这一模型采用数学逻辑描述神经元的活动,虽然简单,但为后来的人工神经网络奠定了基础。
▷图1:神经元结构与McCulloch-Pitts神经元模型
这一时期,对大腦的研究主要聚焦在神经元如何处理信息,以及它们如何通过电信号在复杂网络中相互作用。这些研究启发了早期人工智能研究者设计出早期的人工神经网络。
1950年代,Frank Rosenblatt发明的感知机(Perceptron),是一种受到生物视觉系统的启发而设计的算法,它模拟视网膜接收光线的方式处理信息,虽然原始,但标志着机器学习领網域向前迈出了重要的一步。
▷图2:左边为Rosenblatt的物理感知机,右边为感知器系统结构
除了神经科学的影响,早期的认知心理学研究也对AI的发展有所贡献。认知心理学家试图理解人类如何感知、记忆、思考和解决问题,这些研究为人工智能模拟人类智能行为提供了方法论基础。例如,Allen Newell和Herbert A. Simon开发的逻辑理论机[1-3],能够对数学定理进行证明,这一程式不仅模拟了人类的解决问题的过程,也在某种程度上模仿了人类思维的逻辑推理过程。
这些早期的模型虽然简单,但它们的开发过程和设计理念深受(当时人们)对人腦的理解方式的影响,为后续更复杂系统的开发奠定了理论和实践基础。通过这样的探索,科学家们逐渐构建出能在特定任务上模仿或超越人类表现的智能系统,推动了人工智能技术的演进和革新。
2. 人工智能的发展
自那以后,人工智能领網域经历了一轮又一轮"寒冬"和"复苏"。20世纪七八十年代,算力的提高和算法的创新,如反向传播算法(back propagation)的引入,使得训练更深层次的神经网络成为可能。这一时期,人工智能虽然在某些领網域如专家系统(expert system)中获得了商业成功,但由于技术的局限性和过高的期望值,最终导致了第一次AI寒冬的到来。
进入21世纪,特别是自2010年以后,人工智能领網域再次得到了前所未有的发展。数据量的指数级增长,高性能计算资源(如GPU)的普及和算法的进一步优化,使得深度学习技术迅速成为推动人工智能发展的主要动力。
深度学习的核心仍旧是模拟人腦神经元的信息处理方式,但其应用已经远远超越了最初的设想,涵盖了影像识别、自然语言处理、自动驾驶车辆、医疗诊断等众多领網域。这些突破性的进展,不仅推动了技术的进步,也促进了新的商业模式的出现和产业的快速发展。
▷Giordano Poloni
3. 目前人工智能和人腦智能的差别
3.1 功能表现方面的差别
尽管人工智能在特定领網域(如棋类游戏、特定影像和语音识别任务)已能超越人类,但它通常缺乏跨领網域的适应能力。
虽然某些AI系统(如深度学习模型)在大数据环境中表现出色,但它们通常需要大量的标记数据与模型训练,并且当任务或环境发生变化时,AI的迁移学习能力也较为有限,通常需要为之设计特定的算法。而人腦则具有强大的学习和适应能力,能够在少量数据和多种环境条件下学习新任务,还能够进行迁移学习,即可以将在一个领網域中学到的知识应用到另一个看似无关的领網域。
在处理复杂问题的灵活性方面,AI在处理定义清晰、结构化良好的问题时,如棋类游戏、语言翻译等,效果最佳;但在处理模糊不清、非结构化的问题时,效率较低,易受到干扰。人腦在处理含糊不清、复杂的环境信息时,显示出极高的灵活性和效率。例如,人腦能够在嘈杂的环境中识别声音、在缺乏完整信息的情况下做出决策等。
在意识和认知方面,当前的AI系统缺乏真正的意识和情感,它们的"决策"仅仅是基于算法和数据的输出,没有主观体验或情感的涉及。人类不仅可以处理信息,还拥有意识、情感和主观体验,这些都是人腦智能的重要组成部分。
在多任务处理方面,虽然某些AI系统能够同时处理多种任务,但这通常需要复杂的针对性设计。大多数AI系统针对单一任务设计诞生,其进行多任务处理时的效率和效果通常不如人腦。人腦在同时处理多重任务时具有极大的灵活性,能够在不同任务之间迅速切换并保持高效。
在能耗和效率方面,高级AI系统,尤其是大型机器学习模型,常常需要大量的计算资源和能源,能耗远超人腦。人腦仅需约20瓦特即可运行,具有极高的信息处理效率。
总体来说,尽管人工智能在特定领網域已展示出卓越的性能,但它仍然无法全面模拟人腦,特别是在灵活性、学习效率和多任务处理等方面。未来的AI研究可能会不断缩小这些差异,但人腦的复杂性和高效性仍是其难以超越的标杆。
▷Spooky Pooka ltd
3.2 底层机制方面的差别
在基础结构方面,现代AI系统,特别是神经网络,虽然受到生物神经网络的启发,但"神经元"(通常是计算单元)及其相互连接均依靠数值模拟。这些人工神经网络的连接和处理通常都是预设的、静态的,缺乏生物神经网络的动态可塑性。人腦由大约860亿个神经元组成,每个神经元通过数千到数万个突触连接与其他神经元相连[6-8],这种结构支持复杂的并行处理和高度动态的信息交换。
在信号传递方面,AI系统中的信号传递通常是通过数值计算实现的,例如在神经网络中,神经元的输出是输入加权和的函数,这些加权和通常通过简单的数学函数(如Sigmoid或ReLU)处理。神经信号传导依赖于电化学过程,神经元之间的信息交流通过突触释放神经递质进行,并受到多种生物化学过程的调控。
在学习机制方面,AI的学习通常通过算法调整参数(如权重)来实现,例如通过反向传播算法。虽然这种方法在技术上有效,但它需要大量的数据,针对新的数据集需要重新训练或显著调整模型参数,与人腦的持续和无监督学习方式相比存在差距。人腦的学习依赖于突触可塑性,即神经连接的强度根据经验和活动而改变,这种可塑性支持持续的学习和记忆形成。
4. 模拟人类智能的长期目标——通用人工智能的背景和定义
通用人工智能(AGI)的概念提出,源于对狭义人工智能(AI)的局限性的认识。狭义AI通常专注于解决特定的、限定范围的问题,例如棋类游戏或语言翻译,但缺乏跨任务和领網域的灵活性。随着科技的进步和对人类智能更深入的理解,科学家们开始设想一种类似人类的具备多领網域认知能力、自主意识、创造力和逻辑推理能力的智能系统。
AGI旨在创建一种智能系统,能够像人类一样理解和解决多领網域问题,并且能够进行自我学习和适应。这种系统将不仅仅是工具,更是作为智能实体参与到人类的社会经济、文化活动中。AGI的提出,代表了人工智能发展的理想状态,期望最终能够在全面性和灵活性方面达到并超越人类智能。
实现通用人工智能的路径
多样化的神经元模拟和网络结构显示出不同级别的复杂性。具有更丰富动态描述的神经元的内部复杂性较高,而具有更宽和更深连接的网络的外部复杂性较高。从复杂性的角度来看,目前通常认为,有望实现通用人工智能的路径有两条,一种是外部复杂性大模型方法,例如通过增加模型的宽度和深度;另一种是内部复杂性小模型方法,例如通过向模型添加离子通道或将其转换为多区室模型。
▷图3:神经元和网络的内部复杂性和外部复杂性
1. 外部复杂性大模型方法
在人工智能(AI)领網域,为了解决更广泛和更复杂的问题,研究者们越来越依赖于大型AI模型的开发。这些模型通常具有更深、更大、更宽的网络结构,可称之为"外部复杂性大模型方法"。这种方法的核心,在于通过扩展模型的规模,来增强其处理信息(尤其是在处理大量数据)和学习的能力。
1.1. 大型语言模型的应用
大型语言模型,如GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)等,是当前AI研究中的热点。这些模型通过深层神经网络学习大规模文本数据,掌握语言的深层语义和结构,能够在多种语言处理任务中展示出色的性能。例如,GPT-3通过训练大规模的文本数据集,不仅能够生成高质量的文本,还能进行问答、摘要、翻译等任务。
这些大型语言模型的主要应用,包括自然语言理解、文本生成、情感分析等,因而可广泛应用于搜索引擎、社交媒体分析、客户服务自动化等领網域。
1.2. 为什么要扩展模型的规模?
根据Jason Wei、Yi Tay、William Fedus等人在Emergent Abilities of Large Language Models中的研究,随着模型规模的增大,模型的能力会出现"涌现"现象,即某些先前未明显的能力会突然显现。这是因为模型在处理更复杂、更多样化的信息时,能够学习到更深层次的模式和关联。
例如,超大规模的语言模型能在未经特定针对性训练的情况下,出现解决复杂的推理问题和创造性写作的能力。这种"智能的涌现"现象表明,通过增加模型的规模,可以实现更接近人类智能的广泛认知和处理能力。
▷图4:大语言模型的涌现现象
1.3. 挑战
尽管大型模型带来了前所未有的能力,但它们也面临着重大挑战,尤其是在效率和成本方面。
首先,这类模型需要巨大的计算资源,包括高性能的GPU和大量的存储空间,这直接增加了研究和部署的成本。其次,大模型的能耗问题也日益突出,这不仅影响模型的可持续发展,也引发了环保关注。此外,训练这些模型需要大量的数据输入,这可能引发数据隐私和安全性问题,尤其是当涉及到敏感或个人信息时。最后,大型模型的复杂性和不透明性可能导致模型决策过程难以解释,这在应用于医疗、法律等需求高度透明和可解释性的领網域时,可能成为一个严重问题。
2. 内部复杂性小模型方法
提到大语言模型,人们最直观的感受便是其高度"类人"的输出能力。Webb等人考察了ChatGPT的类比推理能力[3],发现它已涌现出了零样本推理能力,能够在没有明确训练的情况下解决广泛的类比推理问题。一些人认为,如果像ChatGPT这样的LLM确实能够对心理学中的常见测量产生类似人类的响应(例如对行动的判断、对价值的认可、对社会问题的看法),那么它们在未来可能会取代人类受试者群体。
2.1. 理论基础
神经元是神经系统的基本结构和功能部門,其主要组成部分包括细胞体、轴突、树突和突触。这些部分共同协作,完成信息的接收、整合和传递。以下将从神经元模型、电信号在神经元突起(树突和轴突)中的传导、突触及突触可塑性模型、带有复杂树突和离子通道的模型等方面讲起,介绍神经元模拟的理论基础。
▷图5:神经元的结构
2.1.1. 神经元模型
离子通道
神经元的离子通道和离子泵是调控神经电信号传递的关键膜蛋白,它们控制着离子跨细胞膜的运动,从而影响神经元的电活动和信号传递。这些结构确保了神经元能够维持或调节静息电位、生成和传递动作电位,是神经系统功能的基础。
离子通道是嵌在细胞膜中的蛋白质通道,它们可以调控特定离子(如钠、钾、钙和氯)的通过。电压变化、化学信号或机械应力等多种因素,控制这些离子通道的开闭状态,从而对神经元的电活动产生影响。
▷图6:神经元的离子通道和离子泵
等效电路
等效电路模型通过使用电路元件来模拟神经细胞膜的电生理性质,使得复杂的生物电现象可以在物理和工程的框架内得到解释和分析。等效电路模型,通常包括膜电容、膜电阻、电源这3个基本元件。
神经元的细胞膜表现出电容性质,这与细胞膜的磷脂双分子层结构有关。磷脂双层的疏水核阻止离子自由通过,使得细胞膜具有很高的电绝缘性。当细胞膜两侧的离子浓度不同,特别是在在离子泵的调节下,细胞膜两侧会形成电荷分离。由于细胞膜的绝缘性,这种电荷分离在细胞膜上形成了一个静电场,使得细胞膜能储存电荷。
电容元件被用来模拟这种储存电荷的能力,其电容值取决于膜的面积和厚度。膜电阻主要通过离子通道的开闭来调控,它直接影响膜电位的变化速度和细胞对电流输入的响应。电源代表由离子泵产生的离子跨膜浓度差引起的电化学势差,这是维持静息电位和驱动动作电位变化的驱动力。
▷图7:等效电路示意图
HH模型
基于等效电路的思想,Alan Hodgkin和Andrew Huxley在20世纪50年代基于他们对乌贼巨神经元的实验研究提出了HH(Hodgkin-Huxley)模型,模型中包括钠(Na)、钾(K)和漏电流(Leak Current)的电导,可以表示每种离子通道的开启程度,在模型中离子通道的开闭进一步通过门控变量描述,这些变量(m、h、n)具有电压依赖性和时间依赖性。HH模型的方程为:
LIF模型
LIF模型,即泄漏整合发放模型(Leaky Integrate-and-Fire model),是神经科学中一个常用的简化神经元动作电位的数学模型。该模型侧重于描述膜电位[4-5]随时间的变化情况,而忽略生物神经元内部的复杂离子动态。
科学家们发现,当给神经元施加持续的电流输入[6-7]时,神经元的膜电位会随之上升,直到达到某个阈值致使动作电位发放,之后膜电位迅速复位,并重复这一过程。LIF模型虽然没有描述具体的离子通道动态,但由于其计算效率高,广泛应用于神经网络建模和理论神经科学研究。其基本方程如下:
2.1.2. 电信号在神经元突起(树突和轴突)中的传导:电缆理论
19世纪末至20世纪初,科学家们开始认识到,神经元中的电信号可以通过轴突、树突等细长的神经纤维进行传播。然而,随着距离的增加,信号会发生衰减。科学家们需要一种理论工具来解释电信号在神经纤维中的传播过程,特别是在长距离上传播时的电位变化规律。
1907年,物理学家赫尔曼(Wilhelm Hermann)提出了一个简单的理论框架,将神经纤维比作电缆,以此描述电信号的扩散过程。这一理论后来在20世纪中叶由霍奇金和赫胥黎等人进一步发展,他们通过对神经元的实验测量,确认了离子流在信号传播中的关键作用,并建立了与电缆理论相关的数学模型。
电缆理论的核心思想是将神经纤维视为一段电缆,通过引入电阻、电容等电学参数,模拟电信号(通常是动作电位)在神经纤维中的传播过程。神经纤维,如轴突和树突,被视为一维的电缆,电信号沿着纤维长度传播;膜电活动通过电阻和电容来描述,电流的传导则受到纤维内部电阻和膜漏电电阻的影响;信号在纤维中的传播,随着距离增加,逐渐衰减。
▷图8.电缆理论示意图
2.1.3. 多区室模型
在早期的神经元建模中,如HH模型和电缆理论模型,神经元被简化为一个点状的"单一区室",即只考虑膜电位在时间上的变化,而忽略了神经元各个部分的空间分布。这些模型适合描述动作电位的产生机制,但无法充分解释信号在神经元复杂的形态结构(如树突、轴突等)中的传播特性。
随着神经科学对神经元结构复杂性的认识不断加深,科学家们意识到:不同部分的电位变化会有显著差异,尤其是在具有长树突的神经元中。树突和轴突中的信号传播不仅受到电信号的空间扩散影响,还会因为结构复杂性而出现不同的响应。因此,需要一种更精细的模型来描述神经元中电信号的空间传播,这就促使了多区室模型(Multi-compartmental model)的提出。
多区室模型的核心思想是将神经元的树突、轴突和细胞体抽成多个相互连接的区室(compartments),每个区室使用类似于电缆理论的方程来描述跨膜电位随时间和空间的变化,通过多个区室的相互连接,模拟电信号在神经元内部的复杂传播路径,并反映不同区室之间的电位差异。这种处理方式可以精确描述电信号在神经元复杂形态中的传播,特别是树突上的电信号衰减和放大现象。
具体来说,神经元被抽成多个小区室,每个区室代表神经元的一部分(如树突、轴突或细胞体的一段)。每个区室用电路模型表示,电阻和电容用以描述膜的电学特性,跨膜电位由电流注入、扩散和漏电等因素决定。邻近区室通过电阻连接,电信号通过这些连接在区室间传播。跨膜电位Vi在第i个区室中遵循类似于电缆理论的微分方程:
在多区室模型中,某些区室(如细胞体或起始区)可产生动作电位,而其他区室(如树突或轴突)则主要负责电信号的传播和衰减。信号通过不同区室之间的连接传递,树突区的输入信号最终可以整合到细胞体并引发动作电位,动作电位再沿着轴突传播。
与单一区室模型相比,多区室模型能够反映神经元形态结构的复杂性,尤其是在树突和轴突等结构中的电信号传播过程。由于涉及多个区室之间的耦合微分方程,多区室模型常需通过数值方法(如欧拉法或Runge-Kutta方法)进行求解。
2.2. 为什么要进行生物神经元的复杂动态模拟?
Beniaguev等人的实验研究表明,由于大腦不同类型神经元的复杂树突结构和离子通道,单个神经元具有与5-8层深度学习网络相媲美的非凡计算能力[8]。
▷图9:包含AMPA和NMDA突触的L5皮层锥体神经元模型,可以通过包含七个隐藏层的TCN(时间卷积网络)来精确模拟,每个隐藏层有128个特征图,历史时长为153毫秒。
He等人的工作关注不同内部动态和内部复杂性的神经元模型之间的联系[9]。他们提出了一种将外部复杂性转换为内部复杂性的方法,这种内部动态更为丰富的模型具有一定的计算优势。具体来说,他们在理论上证明了LIF模型和 HH模型存在动力学特性上的等效性,HH神经元可以与四个具有特定连接结构的时变参数 LIF神经元(tv-LIF)动力学特性等效。
▷图10:一种从tv-LIF模型转换到HH模型的方法
在此基础上,他们通过实验验证了HH网络在处理复杂任务时的有效性和可靠性,并发现与简化的tv-LIF网络(s-LIF2HH网络)相比,HH网络的计算效率显著更高。这证明了将外部复杂性转化为内部复杂性,可以提高深度学习模型的计算效率;也提示,受生物神经元复杂动态启发的内部复杂性小模型方法,有希望实现更强大和更高效的AI系统。
▷图11:LIF模型、HH模型、s-LIF2HH的计算资源分析
此外,由于结构和计算机制的限制,现有人工神经网络与真实大腦差距较大,无法直接用于理解真实大腦学习以及处理感知任务的机理。相比人工神经网络,具有丰富内部动态的神经元模型,更接近真实的生物,对理解真实大腦的学习过程和人类智能的机制有重要作用。
3. 挑战性
尽管内部复杂性小模型方法在多个方面表现出色,但它也面临着一系列挑战。神经元的电生理活动通常通过复杂的非线性微分方程来描述,这使得模型的求解分析极具挑战。由于神经元模型的非线性和不连续特性,使用传统的梯度下降方法进行学习变得复杂和低效。此外,如HH模型等内部复杂性的增加,减少了硬體并行性,减慢了信息处理速度,因此需要硬體方面相应的创新和改进。
为了应对这些挑战,研究者们开发了多种改进的学习算法。例如,使用近似梯度,解决不连续特性的问题;使用二阶优化算法,更加精确地捕捉损失函数的曲率信息加速收敛。分布式学习和并行计算的引入,使得复杂神经元网络的训练过程可以在大规模计算资源下更高效地进行。
此外,生物启发式学习机制受到一些学者的关注。生物神经元的学习过程与目前的深度学习方法有很大不同。例如,生物神经元依赖于突触的可塑性来实现学习,这种机制包括了突触强度的增强和减弱,称为长时程增强(LTP)和长时程抑制(LTD)。这种机制不仅更加高效,还能够减少模型对连续信号处理的依赖,从而降低计算负担。
▷MJ
弥合人工智能和人腦智能的差距
He等人通过理论验证和模拟证明了更小、内部复杂的网络可以复制更大、更简单的网络的功能。这种方法不仅可以保持性能,还可以提高计算效率,将内存使用量减少四倍,并将处理速度提高一倍,这也表明提高内部复杂性可能是提高 AI 性能和效率的有效途径。
Zhu和Eshraghian对He等人的文章Network model with internal complexity bridges artificial intelligence and neuroscience做出了评论[5]。他们认为,"AI 中内部复杂性和外部复杂性之间的争论仍然悬而未决,这两种方法都可能在未来的进步中发挥作用。通过重新审视和加深神经科学和 AI 之间的联系,我们可能会发现构建更高效、更强大、甚至更类似大腦的人工智能系统的新方法。"
当我们站在 AI 发展的十字路口时,该领網域面临着一个关键问题:我们能否通过更精准地模拟生物神经元的动力学来实现 AI 能力的下一次飞跃,还是会继续用更大的模型和更强大的硬體铺平前进的道路?Zhu和Eshraghian认为,答案可能在于两种方法的综合,这也将随着我们对神经科学理解的加深而不断优化改进。
尽管生物神经元动态的引入在一定程度上增强了AI的功能,但目前仍远未达到对人类意识的模拟的技术水平。首先,理论的完备性依然不足。我们对意识的本质缺乏足够的理解,尚未形成一个能够解释和预测意识现象的完整理论。其次,意识的模拟可能需要高性能的计算模拟框架,目前的硬體和算法效率仍无法支持如此复杂的模拟。此外,大腦模型的高效训练算法依旧是一个难题。复杂神经元的非线性行为增加了模型训练的难度,这需要新的优化方法来处理。大腦的许多复杂功能,例如长时间的记忆保持、情感处理和创造力,其具体神经机制和底层分子机制仍有待深入探索。如何在人工神经网络中进一步模拟这些行为及其分子机制,依然是开放的问题。未来的研究需要在这些问题上取得突破,才能真正走向对人类意识和智能的模拟。
跨学科合作,对于人类意识和智能的模拟至关重要。数学、神经科学、认知科学、哲学、计算机科学等领網域的协同研究,将有助于更深入地理解和模拟人类意识和人类智能。只有通过不同学科的合作,才能形成更加全面的理论框架,推动这项极具挑战的任务向前发展
[1] David Beniaguev, Idan Segev and Michael London. "Single cortical neurons as deep artificial neural networks." Neuron. 2021; 109: 2727-2739.e3 doi: https://doi.org/10.1016/j.neuron.2021.07.002
[2] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E.H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.
[3] 王超名, 陈啸宁, 张秋, 吴思 (2023). 神经计算建模实战:基于BrainPy. 电子工业出版社.
[4] He, L., Xu, Y., He, W., Lin, Y., Tian, Y., Wu, Y., Wang, W., Zhang, Z., Han, J., Tian, Y., Xu, B., & Li, G. (2024). Network model with internal complexity bridges artificial intelligence and neuroscience. Nature computational science, 4(8), 584–599. https://doi.org/10.1038/s43588-024-00674-9
[5] Zhu, R. J., Gunasekaran, S., & Eshraghian, J. (2024). Bridging the gap between artificial intelligence and natural intelligence. Nature computational science, 4(8), 559–560. https://doi.org/10.1038/s43588-024-00677-6
[6] Hindley, N., Sanchez Avila, A., & Henstridge, C.M. (2023). Bringing synapses into focus: Recent advances in synaptic imaging and mass-spectrometry for studying synaptopathy. Frontiers in Synaptic Neuroscience, 15.
[7] Azevedo, F., Carvalho, L., Grinberg, L., Farfel, J., Ferretti, R., Leite, R., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. J. Comp. Neurol. 513, 532–541. doi: 10.1002/cne.21974
[8] Obi-Nagata, K., Temma, Y., and Hayashi-Takagi, A. (2019). Synaptic functions and their disruption in schizophrenia: From clinical evidence to synaptic optogenetics in an animal model. Proc. Jpn. Acad. Ser. B Phys. Biol. Sci. 95, 179–197. doi: 10.2183/pjab.95.014