原文链接:https://mp.weixin.qq.com/s/OsEH-CGvyBcNa68Ho7r1vQ
源:高科技与产业化
今年9月16日,科技部网站正式发布科技创新2030“脑科学与类脑研究”重大项目2021年度项目申报指南的通知,涉及59个研究领域和方向,国家拨款经费预计超过31.48亿元人民币。
中国科学院院士、中科院脑科学与智能技术卓越创新中心学术主任蒲慕明在2021世界机器人大会上指出,在脑科学基础研究外有两项应用研究,一是脑疾病的诊断和治疗,另一个是脑机智能技术。类脑研究并不是模拟脑,而是将相关概念应用到人工智能中。以下为现场报告整理。
认知神经原理
首先谈谈何谓“认知神经原理”,到底包含哪些认知功能?最重要的基本认知功能包括感觉、知觉、记忆、学习,还有情感、情绪、注意、抉择等,这些是很多动物神经系统都有的认知功能,需要理解其工作原理。
另一方面还有一些高级的认知功能,包括要通过长期证据搜集做出的比较复杂的抉择、根据证据的评价做出的抉择、共情心、对他人的理解等,这是所谓的社会行为与亲社会行为的基础。还有更高级的意识和语言的认知功能。这些神经环路和工作原理是很多低等动物所没有的,必须研究灵长类以上的动物才能够解析这些功能。
对于基本和高级的认知功能,我们想知道其发育过程是怎么产生的。因为这些环路的形成与遗传因素、环境因素直接相关。环境和遗传因素怎样交互作用而产生神经环路,这是神经科学的一个重大问题。
在研究基础问题时,我们需要各种模式动物——即脊椎动物中最基本的斑马鱼到哺乳类的小鼠、猕猴等。我们希望能够有一个全景式的绘制图谱,取得结构的信息,进一步认识它的工作原理。
重大脑疾病的诊断和治疗
重大脑疾病的定义是在早期、幼年期的各种自闭症和智障,这是发育性疾病。在成年期的抑郁症和成瘾属于精神类疾病。在老年期有退行性疾病,就是神经系统退化造成的阿尔兹海默症、帕金森等。这些均是造成目前社会负担的重大疾病,我们希望能够了解其致病机理,然后针对机理做诊断和治疗。
到现在为止,绝大多数的脑疾病机理仍然尚未厘清。真正要理解这些机理可能还要数十年的时间,但是社会医疗可能等不了那么久。因此希望在没有完全理解致病机理前,能够确定疾病的预警信息和早期诊断指标。我们可以获得血液和脑脊液分子、脑影像数据、脑功能直接检测指标等,获得这些指标之后,如果能够判断哪些指标在早期就出现异常现象,可以针对症状提前做出干预。
这些干预包含了各种药理、药物的研发,还包含了各种生理和物理的刺激技术。药物研发通常是比较缓慢的一个过程,但是物理和生理刺激技术在很多临床中已经开始广泛地被应用。所谓的干预其实包括药理、生理和物理的干预。研究这些干预手段需要有各种模式,希望有与人类比较相近的、带有人类疾病症状的动物如猕猴模型来做药物研发,并以其做为各种生理、物理干预研发的对象。在这种猴类模型中获得了结果后,再进入人体进行临床研究,这是最有效的开发干预手段的方法。
脑机智能技术分析
另一应用被统称为“脑机智能技术”,包含了大脑与机器之间的融合,即脑机接口和脑机融合的各种方法和模型。这些脑机接口也可以被用于调控大脑的活动,包括光、电、磁、超声等。这种调控技术也包含在研发的脑机智能技术中。如今国际上有一些脑机接口应用在医疗上的例子,这些脑机接口包含着如何从大脑获取信息,然后操控身体外的器械。另外一方面是用身体外的信息来控制大脑,用器械产生的信息控制大脑。这种双向的脑机接口,一个是记录,一个是调控。闭环式的、有反馈式的脑机接口调控技术,是未来这一领域开发的重要前景。
另一方面,脑机智能技术还包括对机器人工智能的研究,包括新一代机器学习的算法。类脑芯片、类脑处理器、类脑计算机等,这些都是目前正在前沿研究中的技术,也是人工智能的前沿领域中很受关注的领域。
当然,我们希望未来的机器人、基于类脑研究获得的智能体,能够应用于服务人类的机器人系统。目前许多脑基智能技术——包含对大数据的处理、如何有效地处理外界的信息等,是否可以从中获得新的信息处理机制和新算法理论等,都是这个领域需要关注的内容。
复杂的大脑与脑科学研究
大脑的网络极其复杂,人类的大脑可能是宇宙中最复杂的物体。从结构上说,大脑包含近千亿的神经细胞,通过百万亿的连接组成了网络。每个神经细胞都至少与一千个以上的神经元连接。这些网络非常复杂且有特异性,并不是混乱的连接。它的连接具有自己的功能,在网络中有特殊的环路与通道,这些通道是实现各种感知运动和思维功能的环路。
因此,我们需要理解的是一个复杂网络中各种特殊环路的功能,这是研究大脑功能的目标。但在这个网络中,复杂性不光指神经元的数目多,事实上神经元的种类也非常多,现在估计至少有上千类不同的神经元,它的形态、生理性质都不同。
因此脑科学所面临的一个大问题就是,怎样能够区分这么多不同种类的神经元?要了解不同的种类才能知道它的功能,才能够真正理解其工作原理。
大脑神经网络从结构上看就非常复杂,我们必须理解其在结构上是什么样的模式,才能进一步理解整个网络的结构。在此基础上,还要了解这些连接不是完全混乱的,也不是一成不变。在大脑使用的过程中,会有电波动产生,也会改变神经元的结构和功能,连接也会产生变化。这个过程我们称为“学习”,事实上学习的过程就是感觉信息、认知信息,把神经元结构、网络结构变到新的状态,形成记忆。学习记忆的过程,就是整个网络的可塑性,而这个可塑性是非常重要的,大脑认知功能最主要的基础就是可塑。
可塑使得一个大脑在使用后,未来在进一步活动时行为会有改变,这就是认知行为。大脑为什么会有这么多复杂、强大的能力,其原因就是认知行为的改变。
我们研发类脑的人工智能或者类脑的机器学习算法时,关键就是如何通过网络的使用来改变结构与功能,能够学习大脑是怎么变化的,然后在人工网络上实现,这是类脑人工智能的关键。
可塑性与记忆的形成
要理解类脑人工智能,首先要理解自然大脑的可塑性。近半个世纪前,就有科学家提出了电波动如何改变大脑。一个最通用的学习的法则,多年来统治着脑科学对于可塑性的理解,即赫伯的学习法则——这种法则就是突触强化或弱化的法则。
还有一个很重要的发现是大脑的记忆分为短期记忆与长期记忆。一次性学习之后都是短期记忆,而在间隔性学习之后能形成长期记忆。
有意思的是,我们发现重复学习的时间间隔是非常重要的。特殊的最佳间隔也可以造成最高的强化,但间隔时间太长也不能强化,要有效地转化。从短期转化成长期记忆,必须在一个optimal(最优的)时间间隔来进行,这在学习理论中有发现,在心理学上同样也有这样的特性。
学习突触效率的变化,可以造成长期的记忆,但是突触结构其实是很复杂的,并不是一个简单的突触神经终端。因此,除了功能上的长期强化与长期弱化、LTP与LTD的变化,伴随的还有结构上的变化。这种结构上的变化,可以在大脑储存长期记忆时被发现。突触的变化包括功能上传递效率的增加、结构变化,可以造成突触效率的改变,这就是可塑性结构的基础。
人类的认知都是很多外界信息的元素与成分。比如认识一个面孔,就包含了对方的眼睛、鼻子、嘴巴、头发等各种各样的信息,再整合成一个面孔。那么,这个整合到底是怎么在神经网络中形成呢?这就是信息捆绑的问题。如今脑科学神经网络连接面临的最大问题之一,就是理解信息是如何捆绑的、是怎么成为整体而感知到信息的?
目前有两种理论,一种成为聚合模型,另一种就是不需要连接上的聚合,而是用同步放电的模式来聚合。同步放电的模式与连接聚合的模式,都是当前流行的对信息捆绑问题的理解。
改进人工网络的关键性思路
但是在真正大脑里,可能在同步放电的模式下即神经元放电的时间相同,造成的反应就是认知。而这种模式,在人工智能网络模型中很少有人应用。赫伯同步放电模式的假说是非常有用的,对下一步怎么改进人工网络是一个关键性的思路。
赫伯细胞群假说认为,同步电活动可以强化细胞群之间的连接,连接强化后就是储存的感知信息。比如看到一个圆形,怎么才能感知到这个圆形呢?这个圆形不断在视野中出现的时候,就激活了一群大脑中的神经元。每一个单一的神经元都对这个圆形的每一个曲线段有反应。当这个圆形出现的时候,一群神经元会同步放电,因为同时被激活。被激活后它们间的连接增强,形成一群连接在一起的神经元,我们称之为神经元集群,它编码了这个圆形。有部分的信息再来时,只要部分神经元被激活,整体的这一群神经元就都被激活。因此这样的部分信息就可以提取我们的感知——确实有一个圆形,而且不需要整个圆形就可以认知出来,这就代表了圆形的视觉。这种说法其实也可以同样用于面孔识别的理解,细胞群储存的记忆可以储存相当长的一段时间,这就是细胞群假说的一种看法。
比如祖母的面孔就是一个部分的集群,对“祖母”是一个整体概念。还有各式各样与祖母相关的概念,这都是一群大超级细胞群。“祖母”的概念就是由这超级细胞群所形成。所以,当我们看到祖母的名字就想起她的面孔,想起她唱的歌、她的声音等。这都是可以提取的,我认为这是最好的理解概念。一个网络怎样谱成概念的最好方式,就是把信息储存在整个网络中,分布式地储存在一个大群细胞之间的连接中。这个假说我们现在正在做许多实验来加以证实
神经网络是怎么形成的?这是在出生之后,由于经验造成网络间的强化而形成的。尤其是在出生后到几岁之间,有大量网络形成时建立了各种网络。有些网络要不断地修剪,好的网络就留下来,不好的网络就削减掉。
整体而言,在幼儿期到青春期时,网络处于形成的过程,修剪大于生成。但成年后,慢慢地修剪大于生成,造成整体网络的减化。这就是年纪大了后可塑性下降,记忆慢慢衰退的原因之一。但是如果这些网络的形成与修剪过程不正常,就会造成各种疾病,这是现在对精神类疾病的网络异常的一种看法。
类脑研究多重要环节
在人工智能中、数字计算机中,要理解网络怎样处理信息,最好的模式是学习儿童是如何产生认知的。我们现在研究类脑智能的发育过程,就是想从中获知,网络是怎样实现自我改进的?它的结构是随着学习而变,造成了一个新的、最有效、最高智能的人工网络。
人工网络可以借鉴的自然网络性质很多。人的种类很多,有抑制性、有兴奋性的,还有各种不同调控神经元的网络,形状、生理放电模式都不一样。现在大多数的人工网络是正向连接,其实在自然网络中,有顺向、逆向、侧向连接,还有非常特异性的连接会造成各式各样的环路。
还有功能的可塑性,就是效率可以增强或减弱。这在人工网络中已经得到应用,人工网络中最常用的学习模式和机器学习算法就是长期学习、长期增强或减弱可塑性的应用。除了功能的可塑性,还有结构的可塑性,及时网络可以增加连接、减少连接,会出现新生与修剪。这是现在人工网络还没有真正考虑到的结构变化。
此外,可塑性可以传播,这也是在自然网络中被发现的。它有各式各样传播的模式,可以造成可塑性的变化。记忆有短期和长期记忆,结构与效率的改变就是记忆的贮存。但是贮存的记忆会消退,随着时间消退,自发活动可以被清洗,但是短期记忆又可以转换为长期记忆。规则性的重复很重要,可以引进到记忆学习的人工网络中。记忆也可以消除,有各种模式和记忆提取等,在自然网络中提取是将记忆再现,电活动的重新出现作为记忆提取的模式。对与学习相关的一群突触都可以同时修饰,这种强化学习在人工网络已经开始应用,但是人工网络的强化学习没有特异性。
集群是最重要的概念。在网络之中,它是一个集群的概念、一种嵌套式的集群。各种成分是由不同的集群造成的,集群之间还可以造成连接的变化、造成集群的集群。这种嵌套式是各种信息捆绑的重要模式。这种多模态的信息就靠着这种捆绑,但是捆绑的关键是要同步活动振荡,或者有相差的耦合活动来捆绑不同集群,而且是不同脑区的集群。
如何将其运用到人工的类脑研究中、怎样利用到人工网络的学习算法中,其中很关键的就是要把时间的信息放到人工智能里。我认为脉冲的神经网络非常重要,利用脉冲网络可以更好地贮存时间信息。然后在时间信息之上可以做同步信息的捆绑,来实现嵌套式信息捆绑的过程,从而产生各种多模态的整合和各种概念的贮存、提取。
类脑研究并不是模拟脑,而是将这些概念怎样应用到人工智能中。这是概念的应用,而不是要模拟整个人脑连接如何形成的,这就太复杂了,而且在目前来看是做不到的。