原文链接:https://mp.weixin.qq.com/s/Y_WCwItRkLJvZc7kKuMMEA
Brain-inspired learning in artificial neural networks: a review人工神经网络中的脑启发学习:综述(12000字)
人工神经网络(ANNs)已经成为机器学习中的一个重要工具,在不同的领域取得了显著的成功,包括图像和语音生成、游戏和机器人。然而,在人工神经网络的操作机制和生物大脑的操作机制之间存在着根本的不同,特别是在学习过程方面。本文对当前人工神经网络中大脑启发的学习表示进行了全面的综述。我们研究了更具生物学意义的机制的整合,如突触可塑性,以增强这些网络的能力。此外,我们深入研究了这种方法带来的潜在优势和挑战。最后,我们为这一迅速发展的领域的未来研究指出了有希望的途径,这将使我们更接近理解智力的本质。
通信:sschmi46@jhu.edu
介绍
记忆和学习之间的动态相互关系是智能生物系统的基本标志。它使有机体不仅能够吸收新知识,而且能够不断完善现有能力,使它们能够熟练地应对不断变化的环境条件。这种适应性特征与各种时间尺度相关,包括通过短期可塑性机制进行的长期学习和快速短期学习,突出了生物神经系统的复杂性和适应性。从大脑中提取高层次灵感的人工系统的开发是跨越几十年的长期科学追求。虽然早期的尝试取得了有限的成功,但最新一代的人工智能(AI)算法在许多具有挑战性的任务中取得了重大突破。这些任务包括但不限于根据人类提供的提示生成图像和文本复杂机器人系统的控制、以及对国际象棋和围棋等策略游戏的掌握以及这些的多模式融合。
虽然人工神经网络在各个领域都取得了显著的进步,但在控制神经网络的能力方面仍有很大的局限性。
像生物大脑一样不断学习和适应。与当前的机器智能模型不同,动物可以在整个生命周期中学习,这对稳定适应不断变化的环境至关重要。这种被称为终身学习的能力仍然是人工智能的一个重大挑战,人工智能主要优化由固定标签数据集组成的问题,使其难以概括新任务或在重复学习迭代中保留信息。应对这一挑战是一个活跃的研究领域,开发具有终身学习能力的人工智能的潜在影响可能会对多个领域产生深远的影响。
在本文中,我们提供了一篇独特的综述,旨在识别启发了当前人工智能算法的大脑机制。为了更好地理解自然智能背后的生物学过程,第一部分将探索塑造神经调节的低水平组件,从突触可塑性到塑造神经活动的局部和全局动力学的作用。这将与第三部分的人工神经网络相关,我们将人工神经网络与生物神经系统进行比较和对比。这将为我们提供一个逻辑基础,试图证明为什么大脑可以为AI提供更多,超越当前人工模型的继承。接下来,我们将深入研究模拟这些过程的人工学习算法,以提高人工智能系统的能力。最后,我们将讨论这些人工智能技术在现实世界中的各种应用,强调它们对机器人、终身学习和神经形态计算等领域的潜在影响。通过这样做,我们旨在提供对生物大脑和人工智能学习机制之间相互作用的全面理解,强调这种协同关系可能带来的潜在好处。我们希望我们的发现将鼓励新一代大脑启发的学习算法。
支持大脑学习的过程
神经科学的一项重大努力旨在确定大脑中学习的深层过程。已经提出了几种机制来解释不同粒度水平的学习的生物学基础——从突触到种群水平的活动。
图一 突触生物神经元的长时程增强(LTP)和抑制(LTD)的图示。A 突触连接的突触前和突触后神经元。B 突触末端,神经元之间的连接点。C 突触生长(LTP)和突触减弱(LTD)。D 顶部,神经元轴突小丘中的膜电位动力学。底部,突触前和突触后棘波。E 描绘LTP和LTD的实验记录的尖峰时间依赖性可塑性曲线
然而,绝大多数生物学上看似合理的学习模式都具有可塑性的特征,这种可塑性来自于局部和全局事件之间的相互作用。下面,我们将更详细地介绍各种形式的可塑性以及这些过程是如何相互作用的。
突触可塑性 大脑中的突触可塑性是指经验改变神经回路功能的能力。突触的可塑性具体指基于活动的突触传递强度的改变,并且是目前最广泛研究的大脑适应新信息的机制。(Plasticity in the brain refers to the capacity of experience to modify the function of neural circuits. The plasticity of synapses specifically refers to the modification of the strength of synaptic transmission based on activity and is currently the most widely investigated mechanism by which the brain adapts to new information) 突触可塑性有两大类:短期和长期可塑性。短期可塑性在几十毫秒到几分钟的范围内起作用,并且在对感觉刺激的短期适应和短期记忆形成中具有重要作用。长期可塑性在几分钟到更长的时间内起作用,被认为是长期行为变化和记忆储存的主要过程之一。
神经调节 除了突触的可塑性,大脑适应新信息的另一个重要机制是神经调节。神经调节是指通过化学信号分子(通常称为神经递质或激素)对神经活动的调节。这些信号分子可以改变神经回路的兴奋性和突触的强度,并对神经功能产生短期和长期影响。已经确定了不同类型的神经调节,包括乙酰胆碱、多巴胺和血清张力素,它们与各种功能如注意力、学习和情绪有关。神经调节已经建议在各种形式的可塑性中发挥作用,包括短和长期可塑性。
元可塑性 神经元根据活动改变其功能和结构的能力是突触可塑性的特征。发生在突触上的这些变化必须精确地组织起来,以便在正确的时间以正确的数量发生变化。这种可塑性的调节被称为元可塑性,或“突触可塑性的可塑性”,在保护不断变化的大脑免于饱和方面起着至关重要的作用。本质上,变塑通过诱导神经元或突触生理状态的变化来改变突触产生可塑性的能力。超可塑性被认为是记忆稳定性、学习和调节神经兴奋性的基本机制。虽然相似,但化生可以与神经调节区分开,在突触的改变过程中,化生和神经调节事件经常在时间上重叠。
神经发生 新形成的神经整合到现有神经回路的过程称为神经发生。神经发生在胚胎发育期间最为活跃,但也已知在整个成年期都会发生,特别是在侧脑室的脑室下区杏仁核和海马结构的齿状回。在成年小鼠中,与标准实验室条件相比,当生活在丰富的环境中时,神经发生被证明增加。此外,许多环境因素,如锻炼和压力已经证明可以改变啮齿类动物海马体中的神经发生率。总的来说,虽然神经发生在学习中的作用还不完全清楚,但它被认为在支持大脑中的学习中起着重要的作用。
神经胶质细胞 神经胶质细胞或神经胶质,通过调节突触处的神经递质信号,在支持学习和记忆中起着至关重要的作用,突触是神经元之间释放和接收神经递质的小间隙。星形胶质细胞是一种神经胶质细胞,可以释放和再摄取神经递质,并对其进行代谢和解毒。这有助于调节大脑中神经递质的平衡和可用性,这对正常的大脑功能和学习至关重要。小胶质细胞是另一种神经胶质细胞,也可以调节神经递质信号,并参与受损组织的重新配对和再生,这对学习和记忆很重要。除了修复和调节,突触强度的结构变化需要不同类型的神经胶质细胞的参与,其中最不明显的影响来自星形胶质细胞。然而,尽管他们的参与至关重要,我们还没有完全了解胶质细胞的作用。了解神经胶质细胞支持突触学习的机制是正在进行的研究的重要领域。
深度神经网络和可塑性
人工神经网络和脉冲神经网络 在过去的几十年里,人工神经网络在机器学习中发挥了至关重要的作用。这些网络在解决各种挑战性问题方面催化了巨大的进步。人工智能中许多最令人印象深刻的成就都是通过使用经过大量数据训练的大型人工神经网络实现的。虽然有许多技术进步,但人工智能的许多成就可以用计算技术的创新来解释,如大规模GPU加速器和数据的可访问性。虽然大规模人工神经网络的应用带来了重大的创新,但仍存在许多挑战。人工神经网络的一些最紧迫的实际限制是它们在功耗方面效率不高,并且它们不太擅长处理动态和噪声数据。此外,人工神经网络无法学习超出其训练周期(例如,在部署期间)的数据,这些数据呈现独立且同分布(IID)的形式,而没有时间,这不能反映信息在时间和空间上高度相关的物理现实。这些缺陷已经导致它们的应用在大规模设置中需要大量的能量38并且也向集成到诸如机器人和可穿戴设备的边缘计算设备提出了挑战39。
从神经科学中寻找解决方案,研究人员一直在探索脉冲神经网络(SNNs)作为人工神经网络的替代方案。SNNs是一类人工神经网络,其设计更接近于生物神经元的行为。ANN和SNNs之间的主要区别在于SNNs将时间的概念结合到它们的通信中。尖峰神经元以膜电位的形式积累来自相连(突触前)神经元(或通过感觉输入)的信息。一旦神经元的膜电位超过阈值,它向所有传出(突触后)连接发出一个二进制“尖峰”。尽管尖峰信号是二进制的并且在时间上是稀疏的,但是理论上已经证明它比基于速率的信息表示(例如在人工神经网络中)包含更多的信息。此外,建模研究显示了SNNs的优势,例如更好的能量效率、处理噪声和动态数据的能力,以及更健壮和容错计算的潜力。这些益处不仅归因于其增加的生物合理性,还归因于脉冲神经网络的独特性质,将它们与传统的人工神经网络区分开来。下面描述了一个简单的漏积分触发神经元的工作模型:
尽管有这些潜在的优势,SNN仍然处于早期发展阶段,在它们能够被更广泛地使用之前,还有几个挑战需要解决。最紧迫的挑战之一是如何优化这些模型的突触权重,因为传统的基于反向传播的人工神经网络方法由于离散和稀疏的非线性而失败。不考虑这些挑战,确实有一些工作突破了现代尖峰网络的极限,例如基于大尖峰的SpikeGPT模型。尖峰模型对这篇综述非常重要,因为它们构成了许多大脑启发的学习算法的基础。
Hebbian and spike-timing dependent plasticity。Hebbian和STDP(spike-timing dependent plasticity)是突触可塑性的两个重要模型,在神经回路和行为的形成中起着重要作用。唐纳德·赫布于1949年首次提出的赫布-边学习规则假设神经元之间的突触在它们相互作用时得到加强,这样一个神经元的激活会导致另一个神经元的激活。另一方面,STDP是最近提出的突触可塑性模型,它考虑了突触前和突触后尖峰的精确定时以确定突触的增强或减弱。人们普遍认为,STDP在发育过程中神经回路的形成和完善以及回路对经验的不断适应中起着关键作用。在下面的小节中,我们将提供hebb学习和STDP的基本原理的概述。
Hebbian学习 Hebbian学习基于这样一种观点,即如果两个神经元同时活跃,那么它们之间的突触强度应该增强,反之则减弱。赫布认为,当一个细胞“重复或持续地参与激发”另一个细胞时,这种增加就会发生(有因果关系)。然而,这一原则往往是相互关联的,如著名的格言“细胞一起开火,电线在一起”(不同地归因于sie grid lwel 或者卡拉·沙茨)
Hebbian学习通常用作无监督学习算法,其目标是在没有显式反馈的情况下识别输入数据中的模式。这个过程的一个例子是Hopfield网络,其中通过对(对称的)权重应用Hebbian规则,大的二进制模式可以容易地存储在全连接的循环网络中。它还可以适用于监督学习算法,其中规则被修改以考虑网络的期望输出。在这种情况下,希伯恩学习规则与指示给定输入的正确输出的教导信号相结合。
一个简单的Hebbian学习规则可以用下面的等式进行数学描述:
其中▲wij是神经元I和神经元j之间的权重变化,η是学习速率,神经元I中的xi“活动”,通常被认为是神经元放电速率。这条规则规定,如果两个神经元同时被激活,它们的连接应该得到加强。
基本赫比规则的一个潜在缺点是它的不稳定性。例如,如果xi和xj最初是弱正相关的,这个规则将增加两者之间的权重,这将反过来加强相关性,导致甚至更大的权重增加,等等。因此,需要某种形式的稳定。这可以简单地通过限制权重来实现,或者通过更复杂的规则来实现,这些规则考虑了额外的因素,例如突触前和突触后活动的历史或者网络中其他神经元的影响(参见参考文献对于许多这样的规则的实际回顾)。
三因素法则:Hebbian强化学习 通过引入关于奖励的信息,Hebbian学习也可以用于强化学习。一个明显可行的想法是简单地将Hebbian更新直接乘以奖励,如下所示:
R是奖励(对于这个时间步或对于整个情节)。不幸的是,这种想法不能产生可靠的强化学习。通过注意到如果wij已经处于其最佳值,这可以直观地感觉到,上述规则仍然会产生净变化,从而驱使wij远离最佳值。
更正式地说,正如弗雷莫等人所指出的,以正确跟踪输入、输出和回报之间的实际协方差,xixjR乘积中的至少一项必须居中,也就是用围绕其期望值的零均值波动代替。一个可能的解决方案是通过从R中减去一个基线来计算回报,这个基线通常等于这个试验的R的期望值。虽然有帮助,但实际上这种解决方案通常是不够的。
更有效的解决方案是从输出中去除平均值。这可以通过使神经活动xj受到偶然的随机扰动(取自适当的零中心分布)来容易地完成,然后在三因子乘积中使用扰动xj,而不是原始的突触后活动xj:
这就是Fiete和Seung提出的所谓的“节点扰动”规则。直观地说,注意xi xj增量的作用是将未来的XJ响应(当抵消相同的Xi输入时)推向扰动的方向:如果扰动为正,则更大;如果扰动为负,则更小。如果R为正,将这一位移乘以R会将未来的响应推向扰动,如果R为负,则远离扰动。即使R不为零均值,净效应(在预期中)仍将驱使wij向更高的R移动,尽管方差会更高。
这个规则实现了加强算法(Williams的原始论文实际上提出了一种算法,这种算法对于脉冲随机神经元来说是精确的节点扰动),从而估计了wij上R的理论梯度。它也可以用生物学上可行的方式实现,允许循环网络从稀疏、延迟的奖励中学习非平凡的认知或运动任务。
Spike-timing dependent plasticity (STDP)是突触可塑性的理论模型,允许神经元之间的连接强度根据其spike电位的相对时序进行修改。与依赖于突触前和突触后神经元同时激活的赫比学习规则不同,STDP考虑了突触前和突触后尖峰的精确定时。具体来说,STDP认为,如果一个突触前神经元恰好在一个突触后神经元之前激活,那么它们之间的联系应该得到加强。相反,如果突触后神经元恰好在突触前神经元之前触发,那么这种连接应该会被削弱。
已经在多种生物系统中观察到STDP,包括新皮层、海马和小脑。该规则已被证明在神经回路的发育和可塑性中起着至关重要的作用,包括学习和记忆过程。STDP还被用作开发人工神经网络的基础,人工神经网络是用来模仿大脑的结构和功能的。
STDP的数学公式比赫比学习规则更复杂,并且可以根据具体的实现而变化。然而,一个常见的公式是:
观点,布朗和他的同事引用威廉·詹姆斯的话:“当两个基本的大脑过程一起或连续活跃时,其中一个在重复出现时,倾向于将其兴奋传播到另一个。”
图二 人工和类脑学习算法之间有很强的相似性。左,顶端,啮齿动物和一群相互连接的神经元的图形描述。中间,啮齿动物正在参与莫里斯水迷宫任务,以测试其学习能力。下图描述了生物突触前和突触后锥体神经元。右,顶端,具有人工神经网络策略和调节学习和控制的批判头的啮齿动物肌肉骨骼物理模型(参见参考文献)。中间,用于基准学习算法的虚拟迷宫环境(参考文献)。底部,一种具有正向传播方程的人工突触前和突触后神经元
其中,wij是神经元I和神经元j之间的权重变化,t是突触前和突触后尖峰之间的时间差,A+和A分别是增强和抑制的幅度,τ+和τ分别是增强和抑制的时间常数。该规则规定,两个神经元之间的连接强度将根据它们相对于彼此的尖峰的时间而增加或减少。
支持人工神经网络学习的过程
在人工神经网络中有两种主要的权重优化方法:错误驱动的全局学习和大脑启发的局部学习。在第一种方法中,通过将全局误差驱动到其最小值来修改网络权重。这是通过将误差分配给每个权重并同步每个权重之间的修改来实现的。相比之下,大脑启发的局部学习算法旨在通过使用局部可用信息修改动态方程的权重,以更符合生物学的方式进行学习。这两种优化方法都有独特的优点和缺点。在下面的部分中,我们将讨论最常用的错误驱动全局学习形式,即反向传播,然后深入讨论大脑启发的局部算法。值得一提的是,这两种方法并不相互排斥,为了补充它们各自的优势,通常会将它们集成在一起。
反向传播。反向传播是一种强大的误差驱动的全局学习方法,它改变神经网络中神经元之间连接的权重,以产生期望的目标行为。这是通过使用定量指标(目标函数)实现的,该指标描述了给定感觉信息(如视觉输入、书面文本、机器人关节位置)下的行为质量。反向传播算法包括两个阶段:前向传递和后向传递。在前向传递中,输入通过网络传播,然后计算输出。在反向传递期间,计算预测输出和“真实”输出之间的误差,并且通过将误差反向传播通过网络来计算损失函数相对于网络权重的梯度。然后,使用诸如随机梯度下降的优化算法,将这些梯度用于更新网络的权重。这个过程重复多次迭代,直到权重收敛到一组使损失函数最小的值。
让我们来看看反向传播的简单数学解释。首先,我们定义一个期望损失函数,它是网络输出和真实值的函数:
其中y是真实输出,y’是网络输出。在这种情况下,我们将最小化平方误差,但可以很好地优化任何平滑和可微分的损失函数。接下来,我们使用链式法则来计算,相对于网络权重的损失。设wl是层l中的神经元I和层l + 1中的神经元j之间的权重,并且设al是层l中的神经元I的激活。然后,损失相对于权重的梯度由下式给出:
其中,α是学习率。通过重复计算梯度和更新权重,网络逐渐学会最小化损失函数并做出更准确的预测。在实践中,梯度下降法通常与将动量引入梯度估计的方法相结合,这已被证明能显著提高泛化能力。
反向传播令人印象深刻的成就促使神经科学家研究它是否能更好地理解大脑中的学习。尽管关于反向传播变异是否会发生在大脑中仍有争议很明显,目前的反向传播在生物学上是不合理的。另一种理论认为,复杂的反馈回路或局部活动与自上而下信号的交互作用(第三个因素)可能支持类似的反向传播学习形式。
尽管它的性能令人印象深刻,但仍然存在基本的算法挑战,这些挑战来自于对网络权重重复应用反向传播。其中一个挑战是一种被称为灾难性遗忘的现象,即神经网络在对新数据进行训练时会忘记之前学习的信息。当网络根据新数据进行微调时,或者当网络根据一系列任务进行训练而没有保留从以前的任务中学到的知识时,会发生这种情况。灾难性遗忘是开发能够从多样化和不断变化的环境中持续学习的神经网络的一个重大障碍。另一个挑战是反向传播需要通过网络的所有层反向传播信息,这在计算上是昂贵和耗时的,尤其是对于非常深的网络。这可能会限制深度学习算法的可扩展性,并使其难以在有限的计算资源上训练大型模型。尽管如此,对于涉及人工神经网络的应用,反向传播仍然是最广泛使用和最成功的算法
进化和遗传算法 另一类近年来受到广泛关注的全局学习算法是进化和遗传算法。这些算法受自然选择过程的启发,在人工神经网络的背景下,旨在通过模拟进化过程来优化神经网络的权重。在遗传算法中用随机权重初始化一组神经网络,并对每个网络的特定任务或问题进行评估。在这项任务中表现较好的网络被选择出来进行繁殖,由此它们产生的后代在权重上略有变化。这一过程会重复几代的操作类似于进化算法,但使用不同的方法来逼近随机梯度。这是通过扰动权重并结合网络目标函数性能来更新参数来实现的。这导致更全面的搜索在寻找最优解时比像back这样的局部搜索方法更有效传播。
这些算法的一个优点是它们能够有效地搜索巨大的参数空间,使它们适合于具有大量参数或复杂搜索空间的问题。此外,它们不需要不同的目标函数,这在目标函数难以定义或计算的情况下是有用的(例如脉冲神经网络)。然而,这些算法也有一些缺点。一个主要的限制是评估和发展大量网络所需的高计算成本。另一个挑战是算法可能陷入局部最优或收敛过快,导致次优解。另外,随机突变的使用会导致学习过程中的不稳定性和不可预测性。
无论如何,进化和遗传算法已经在各种应用中显示出有希望的结果,特别是在优化不可微和非平凡的参数空间时。正在进行的研究集中于提高这些算法的效率和可扩展性,以及发现何时何地使用这些方法代替梯度下降是有意义的。
人工神经网络中学习的脑启发表征
局部学习算法 与要求信息通过整个网络传播的全局学习算法(如反向传播)不同,局部学习算法专注于基于来自附近或突触连接的神经元的局部信息来更新突触权重。这些方法经常受到生物突触可塑性的强烈启发。正如我们将看到的,通过利用局部学习算法,人工神经网络可以更有效地学习,并适应不断变化的输入分布,使它们更适合现实世界的应用。在这一节中,我们将回顾大脑启发的局部学习算法的最新进展,以及它们在提高人工神经网络的性能和鲁棒性方面的潜力。
反向传播衍生的局部学习 反向传播衍生的局部学习算法是一类试图模仿反向传播的数学特性。不同于传统的反向传播算法,它涉及通过整个网络反向传播误差信号,反向传播导出的局部学习算法基于使用反向传播计算的局部误差梯度来更新突触权重。这种方法计算效率高,并允许在线学习,使其适合于训练数据不断到达的应用。
反向传播衍生的局部学习算法的一个突出例子是反馈校准(FA e Feedback Alignment ()算法这用固定的随机矩阵代替了反向传播中使用的权重传输矩阵,允许误差信号从直接连接传播,从而避免了对反向传播误差信号的需要。反馈校准的简单数学描述如下:假设wout是连接网络最后一层到输出的权重矩阵,而win是连接输入到第一层的权重矩阵。在反馈对准中,误差信号使用固定随机矩阵B从输出传播到输入,而不是wout的转置。然后,使用输入和误差信号的乘积来计算权重更新,win = ηxz其中x是输入,η是学习速率,z是通过网络反向传播的误差信号,类似于传统的反向传播。
直接反馈校准(DFA)通过将输出层误差直接连接到每个隐藏层,与FA相比简化了权重传输链。符号对称(SS)算法类似于FA,除了反馈权重对称地共享符号。虽然FA在MNIST和CIFAR这样的小数据集上表现出了令人印象深刻的结果,但它们在ImageNet这样的大数据集上的性能通常是次优的。另一方面,最近的研究表明,即使在大规模数据集上,SS算法也能够获得与反向传播算法相当的性能。
资格传播 (e-prop)扩展了脉冲神经网络反馈校准的思想,结合了传统误差反向传播和生物学似是而非的学习规则的优点,如脉冲定时相关的可塑性(STDP)。对于每个突触,e-prop算法计算并维护一个合格轨迹。
输出神经元的误差,通过使用对称的反馈权重或通过使用固定的反馈权重,如在反馈校准中。e-prop的一个可能的缺点是,它需要在每个时间点的实时误差信号Lt,因为它只考虑过去的事件,而对未来的误差视而不见。特别是,它不能从超出个人时间范围的延迟误差信号中学习神经元(包括短期适应)与加强法和节点扰动法相反。
在本参考文献的工作中 。基于最近遗传学发现的突触学习规范理论神经元信号传递结构的研究。他们提出,神经元通过细胞类型特异性的局部神经调节将它们对学习结果的贡献传达给附近的神经元,并且神经元类型多样性和神经元类型特异性的局部神经调节可能是生物学分分配难题的关键部分。在这项工作中,作者建立了一个基于eligibility propagation的简化计算模型来探索这一理论,并表明他们的模型,包括多巴胺样时间差和神经肽样局部调节信号,导致了对先前方法如e-prop和反馈校准的改进。
泛化属性 深度学习中的泛化属性技术在理解其学习算法的泛化方面取得了巨大的进步。一个特别有用的发现是平坦的极小值倾向于导致更好的一般化。这意味着,给定参数空间(突触权重值)中的扰动ϵ,在更窄的最小值附近观察到更显著的性能下降。在参数空间中找到更平坦的最小值的学习算法最终导致更好的泛化。
最近的工作已经探索了由(大脑启发的)反向传播导出的局部学习规则所表现出的泛化特性。与通过时间的反向传播相比,反向传播导出的局部学习规则表现出更差和更多变量的泛化,由于梯度近似与真实梯度不太一致,这种泛化不能通过缩放步长来改善。虽然优化过程的局部近似比它们的完整对应物具有更差的泛化属性可能不足为奇,但这项工作为提出新的问题打开了大门,即设计大脑启发的学习算法的最佳方法是什么。这也提出了一个问题,即反向传播衍生的局部学习规则是否值得探索,因为它们从根本上来说将表现出低于标准的一般化。
总之,虽然反向传播衍生的局部学习规则作为设计大脑启发的学习算法的一种有前途的方法出现,但它们具有必须解决的局限性。这些算法的通用性差,突出了进一步研究的需要,以提高它们的性能,并探索替代的大脑启发的学习规则。这也提出了一个问题,即反向传播衍生的局部学习规则是否值得探索,因为它们基本上会表现出低于标准的泛化能力。
元优化可塑性规则 元优化的可塑性规则在错误驱动的全局学习和大脑启发的局部学习之间提供了有效的平衡。元学习可以被定义为自动搜索学习算法本身,而不是依赖人类工程学为了描述一个学习算法,采用了一个寻找该算法的搜索过程。元学习的思想自然延伸到大脑启发的学习算法,这样大脑启发的学习机制本身可以被优化,从而允许发现更有效的学习,而无需手动调整规则。在接下来的部分,我们将从可微分优化的突触可塑性规则开始,讨论这一研究的各个方面。
可微分可塑性 在文献中这一原理的一个实例是可微分可塑性,它是一个框架,专注于通过梯度下降优化神经网络中的突触可塑性规则。在这些规则中,塑性规则以这样的方式描述,即控制其动力学的参数是可微的,允许反向传播用于塑性规则参数的元优化(例如,简单赫比规则中的η项或STDP规则中的A+项)。这允许权重动态精确地解决需要在执行时间期间优化权重的任务,这被称为寿命内学习。
可微分的可塑性规则也能够对神经调节动力学进行可微分的优化。这个框架包括神经调制的两个主要变体:全局神经调制,其中权重变化的方向和幅度由网络输出相关的全局参数控制,以及追溯神经调制,其中过去活动的效果由短时间窗口内的多巴胺样信号调制。这是通过使用资格跟踪来实现的,资格跟踪用于跟踪哪些突触促成了最近的活动,多巴胺信号调节这些跟踪到实际塑性变化的转换。
涉及可微可塑性的方法在顺序联想任务的广泛应用中得到了改进熟悉度检测和机器人噪音适应。这种方法也被用来优化短期塑性规则其在强化和时间监督学习问题中表现出改进的性能。虽然这些方法显示出很大的前景,但不同的可塑性方法需要大量的内存,因为反向传播用于随时间优化每个突触的多个参数。这些方法的实际进展可能需要参数共享或者更节省内存的反向传播形式。
脉冲神经元的可塑性 最近在通过具有替代梯度的脉冲神经元的不可微分部分反向传播方面的进展已经允许使用不同的可塑性来优化脉冲神经网络中的可塑性规则。这种优化范例的能力通过使用可微分的尖峰时间相关的可塑性规则来展示,以在在线单次连续学习问题和在线单次图像类别识别问题上实现“学会学习”。类似的方法被用来优化第三个因子信号使用e-prop的梯度近似作为塑性规则,引入e-prop的元优化形式。由进化调整的递归神经网络也可以用于元优化的学习规则。进化神经单元(枚举)引入门控结构,控制如何处理、存储输入和更新动态参数。这项工作证明了单个神经元体细胞和突触间隔模型的进化,并表明神经元网络可以学习解决T-迷宫环境任务,独立发现脉冲动力学和强化型学习规则。
Plasticity in RNNs and Transformers 独立于旨在使用更新规则学习可塑性的研究,转换体最近被证明是良好的终生学习者。情境学习的过程不是通过更新突触权重来进行的,而是纯粹在网络激活中进行的。像转换体一样,这个过程也可能发生在递归神经网络中。虽然情境学习似乎是一种不同于突触可塑性的机制,但这些过程已被证明表现出很强的相关性。文献中讨论的一个令人兴奋的联系是认识到元学习者的参数共享经常导致将激活解释为权重。这表明,虽然这些模型可能具有固定的权重,但它们表现出与具有塑料权重的模型相同的学习能力。另一个联系是,转换体中的自我关注包括外部和内部产品,它们可以被转换为学习到的重量更新甚至可以实现梯度下降。
进化和遗传元优化 很像可微塑性,进化和遗传算法已被用于优化各种应用的塑性规则的参数,包括:适应机器人系统的肢体损伤。最近的工作还通过使用笛卡尔遗传程序优化了塑性系数和塑性规则方程,提出了一种基于正在解决的特定任务来发现生物学上的可塑性规则的自动化方法。在这些方法中,遗传或进化优化过程类似于微分过程,使得它在外环过程中优化可塑性参数,而可塑性规则在内环过程中优化回报。这些方法是有吸引力的,因为与可微分方法相比,它们具有低得多的内存足迹,因为它们不需要随时间反向传播误差。然而,虽然内存效率高,但它们通常需要大量数据才能获得与基于梯度的方法相当的性能。
自我参照元学习 突触可塑性有两个层次的学习,元学习者和发现的学习规则,自我参照元学习扩展了这种层次结构。在可塑性方法中,仅更新网络参数的子集(例如突触权重),而元学习更新规则在元优化后保持固定。
图3 前馈神经网络通过向下游传播输入信息来计算给定输入的输出。输出的精确值由突触系数的权重决定。为了在给定输入的情况下提高任务的输出,突触权重被修改。突触可塑性算法代表了一种计算模型,它模拟了大脑根据神经元的活动来加强或削弱突触(神经元之间的连接)的能力,从而促进学习和记忆的形成。三因素可塑性指的是一种突触可塑性模型,其中神经连接强度的变化由三个因素决定:突触前活动、突触后活动和调节信号,促进了更细致和适应性更强的学习过程。反馈校准算法是一种学习技术,其中使用随机的、固定的反馈连接而不是对称的权重矩阵来训练人工神经网络,证明了成功的学习可以在没有精确的反向传播的情况下发生。反向传播是机器学习和人工智能中的基本算法,用于通过计算损失函数相对于网络中权重的梯度来训练神经网络
自引用架构使神经网络能够以递归方式修改其所有参数。因此,学习者也可以修改元学习者。这在原则上允许任意级别的学习、元学习、元元学习等。一些方法对这种系统的参数初始化进行元学习。找到这个初始化仍然需要一个硬连线的元学习者。在其他作品中,网络自我修改的方式甚至消除了这种元学习者。有时,待发现的学习规则具有结构搜索空间限制,这简化了自我改进,其中基于梯度的优化器可以发现自身或者进化算法可以优化自身。尽管它们有所不同,但突触可塑性和自我参照方法都旨在实现神经网络的自我改进和适应。
元优化学习规则的泛化 所发现的学习规则推广到多种任务的范围是一个重要的未决问题——特别是,它们何时应该取代人工导出的通用学习规则,如反向传播?对这些方法提出挑战的一个特别观察是,当搜索空间很大并且对学习机制几乎没有限制时概括变得更加困难。然而,为了修正这一点,在变量共享元学习灵活的学习规则由参数共享的递归神经网络来参数化,该网络局部交换信息以实现学习算法,该算法概括了在元优化期间没有看到的分类问题。对于强化学习算法的发现也显示了类似的结果性。
脑启发学习的应用
神经形态计算 神经形态计算代表了计算系统设计中的范式转变,其目标是创建模拟生物大脑的功能结构的硬件。这种方法旨在开发人工神经网络,不仅复制大脑的学习能力,还复制其能量效率和固有的并行性。神经形态计算机系统通常包含专门的硬件,如神经形态芯片或忆阻设备,以实现大脑启发的学习算法的有效执行。这些系统有可能极大地提高机器学习应用程序的性能,特别是在边缘计算和实时处理场景中。
神经形态计算的一个关键方面在于开发专门的硬件体系结构,这些硬件体系结构有助于实现脉冲神经网络,这更类似于生物神经元的信息处理机制。神经形态系统基于大脑启发的局部学习原理运行,这使得它们能够实现高能效、低延迟处理和抗噪声的鲁棒性,这对于现实世界的应用来说是至关重要的。脑启发学习技术与神经形态硬件的集成对于这项技术的成功应用至关重要。
近年来,神经形态计算的进步导致了各种平台的发展,如英特尔的Loihi,IBM的TrueNorth,和SpiNNaker,它为实现SNNs和大脑启发的学习算法提供了专门的硬件架构。这些平台为进一步探索神经计算系统提供了基础,使研究人员能够设计、模拟和评估新的神经网络结构和学习规则。随着神经形态计算的不断进步,预计它将在人工智能的未来发挥关键作用,推动创新,并实现更高效、多功能和生物合理的学习系统的开发。
机器人学习 神经网络中大脑启发的学习有可能通过启用机器人来克服机器人领域中目前存在的许多挑战以更灵活的方式学习和适应他们的环境。传统的机器人系统依赖于预编程的行为,这些行为在适应不断变化的条件的能力方面受到限制。相比之下,正如我们在这篇综述中所展示的,神经网络可以通过基于它们接收的数据调整它们的内部参数来训练以适应新的情况。
由于它们与机器人的天然关系,大脑启发的学习算法在机器人领域有着悠久的历史。为此,突触可塑性规则已被引入,以适应机器人的行为领域的变化,如运动增益和粗糙的地形以及用于避障和铰接(臂)控制。大脑启发的学习规则也被用来探索学习如何在昆虫大脑中发生,使用机器人系统作为具体化的媒介。
深度强化学习(DRL)代表了大脑启发的学习算法的重大成功,它将神经网络的优势与大脑中的强化学习理论相结合,以创建能够通过与环境交互来学习复杂行为的自主代理。通过利用模拟多巴胺神经元活动的奖励驱动的学习过程与最小化例如分类或回归误差相反,DRL算法指导机器人学习最佳策略以实现它们的目标,即使在高度动态和不确定的环境中。这种强大的方法已经在各种机器人应用中得到证实,包括灵巧操作、机器人移动,以及多智能体协调。
终身学习和在线学习 终身学习和在线学习是脑启发学习在人工智能中的重要应用,因为它们使系统能够适应不断变化的环境并不断获得新的技能和知识。相比之下,传统的机器学习方法通常在固定的数据集上训练,缺乏适应新信息或变化环境的能力。成熟的大脑是终身学习的一个不可思议的媒介,因为它在一生中不断学习,同时保持相对固定的大小。正如这篇综述所表明的那样,与大脑类似,被赋予大脑启发的学习机制的神经网络可以被训练来不断学习和适应,随着时间的推移提高它们的性能。
使人工系统能够展示这种能力的脑启发学习算法的发展有可能显著增强它们的性能和能力,并对各种应用具有广泛的影响。这些应用在数据缺乏或收集费用昂贵的情况下特别有用,例如在机器人领域或者自治系统因为它允许系统实时学习和适应,而不是在学习发生之前需要收集和处理大量数据。
终身学习领域中的一个主要目标是缓解与人工神经网络中持续应用反向传播相关的一个主要问题,即一种现象被称为灾难性遗忘。灾难性遗忘是指人工神经网络在学习新数据时突然忘记以前学习过的信息的倾向。发生这种情况是因为最初为早期任务优化的网络中的权重被彻底改变以适应新的学习,从而擦除或覆盖了先前的信息。这是因为反向传播算法在促进新的学习的同时,并不固有地考虑保存先前获取的信息的需要。几十年来,解决这个问题一直是人工智能领域的一个重大障碍。我们假设,通过使用模拟大脑动态学习机制的大脑启发学习算法,我们可能能够利用生物有机体固有的熟练解决问题的策略。
了解大脑 人工智能和神经科学的世界已经从彼此身上受益匪浅。专门为某些任务定制的深度神经网络在处理空间信息的方式上与人脑有着惊人的相似之处和视觉信息。这种重叠暗示了人工神经网络(ANN)作为有用模型的潜力,有助于我们更好地理解大脑的复杂机制。一个被称为神经连接主义者研究计划的新运动体现了这种结合的方法,使用人工神经网络作为计算语言来形成和测试关于大脑如何计算的想法。这种观点汇集了不同的研究成果,提供了一个通用的计算框架和工具来测试关于大脑的特定理论。
虽然这篇综述强调了一系列模拟大脑功能的算法,但我们仍然有大量的工作要做,以完全掌握学习在大脑中实际上是如何发生的。使用反向传播和类似反向传播的局部学习规则来训练大型神经网络可以为大脑功能建模提供良好的起点。人们进行了大量卓有成效的研究,以了解大脑中哪些过程的运作与反向传播相似,导致神经科学的新观点和理论。尽管目前形式的反向传播可能不会在大脑中发生,但尽管学习机制如此不同,大脑可能会发展出与人工神经网络相似的内部表示,这一想法是一个令人兴奋的开放性问题,可能会导致对大脑和人工智能的更深入理解。
探索现在正从静态网络动力学扩展到揭示时间功能的网络,就像大脑一样。随着我们在持续和终身学习中进一步开发算法,我们的模型需要更紧密地反映自然界中观察到的学习机制,这一点可能会变得很清楚。这种焦点的转移要求将局部学习规则——那些反映大脑自身方法的规则——整合到人工神经网络中。
我们确信,在人工神经网络中采用更具生物学真实性的学习规则不仅会产生上述益处,而且还会为神经科学研究者指明正确的方向..换句话说,这是一个有双重好处的策略:它不仅有望振奋工程上的创新,但它也让我们更接近解开大脑中错综复杂的过程。有了更现实的模型,我们可以从人工智能的新视角更深入地探索大脑计算的复杂性。
结论
在这篇综述中,我们研究了将更符合生物学原理的学习机制整合到人工神经网络中。这种进一步的整合对神经科学和人工智能来说都是重要的一步。这与人工智能在大型语言模型和嵌入式系统方面取得的巨大进步尤其相关,这迫切需要更节能的学习和执行方法。此外,虽然人工神经网络在这些应用方面取得了很大进展,但它们像生物大脑一样适应的能力仍然有很大的局限性,我们认为这是大脑启发学习机制的主要应用。
当我们为神经科学和人工智能之间更详细的大脑启发的学习算法的未来合作制定战略时,重要的是要承认神经科学对人工智能的过去影响很少是关于现成的解决方案对机器的直接应用。更常见的是,神经科学通过提出关于动物学习和智力方面的有趣的算法级问题来刺激人工智能研究人员。它为支持学习的重要机制提供了初步的指导。我们的观点是,通过利用来自神经科学的观点,我们可以大大加速人工神经网络中使用的学习机制的进步。同样,在人工智能中使用类脑学习算法的实验可以加速我们对神经科学的理解。
致谢
我们感谢OpenBioML协作工作空间,本书的几位作者都是通过它联系在一起的。这份材料是基于国家科学基金会研究生研究基金DGE2139757的资助。
文献
1.运动学习与发展的时间尺度。心理评论108,57 (2001)。2.前额叶皮层的“活动-沉默”工作记忆:一个动态编码框架。认知科学趋势19,394–405(2015)。3.Gerstner,w .,Lehmann,m .,Liakoni,v .,Corneil,D. & Brea,j .行为时间尺度上的资格痕迹和可塑性:新希伯来人三因素学习规则的实验支持。神经回路前沿12,53 (2018)。4.科学文本的预训练语言模型。arXiv预印本arXiv:1903.10676 (2019)。5.语言模型是一次性学习者。神经信息处理系统进展33,1877–1901(2020)。篇幅有限,参考文献6-149此处省略
原论文链接:https://arxiv.org/pdf/2305.11252.pdf