意识的凝聚与扩散

发布者:梁刚健发布时间:2021-12-21浏览次数:166

原文链接:https://mp.weixin.qq.com/s/b-_2l_wA3IfVV-mCrk8_ZA

蔡恒进 上海师范大学学报哲社版


意识的凝聚与扩散

 ——关于机器理解的“中文屋”

论题的解答


蔡恒进




刊于《上海师范大学学报(哲学社会科学版)》2018年第2

  

摘要:对意识的传统理解会导致“中文屋”等悖论产生:屋内的人和部件虽然完全不懂汉语,作为整体却可以与外界用汉语顺畅交流。从触觉大脑假说出发,人类意识从原意识起就具有凝聚与扩散的特性,且可通过认知坎陷连续、动态发展,不断强化对自我与外界的理解。人不是一个可计算的物理系统,但其理解过程却可迁移至机器。目前的人工智能便可看作一种人类意识凝聚的结果,而“中文屋”所呈现出的,正是程序书(编著者)和屋内人意识共同凝聚的结果。故未来的挑战就在于人工智能能否开出认知坎陷,又能否与人类的认知坎陷兼容共进。

  

关键词:意识;扩散;凝聚;机器理解;中文屋;认知坎陷;人工智能

  

作者简介:蔡恒进,武汉大学国际软件学院教授,博士生导师,主要从事服务科学、软件工程和人工智能研究。

  

一、引言



触觉大脑假说指出,在大脑快速发育的过程中,人的皮肤对外界的温暖、疼痛等强刺激十分敏感,婴儿由此产生了“自我”与“外界”的区分意识(原意识),为高级智能的诞生创造了基础。由此可知,自我和外界的边界始于人类敏感的皮肤,而自我意识最早正是从这里开始的。起初自我意识中所包含的内容可能很少,但人一旦意识到我是“我”,那么作为统一的、整全的“我”便已然存在,即只能是零或者一,而不存在任何中间可调和状态。这一点跟很多人的想象不太一样,因为从物理还原的角度来看,唯有将“我”定义到一个点上,才能够满足物理规律。但实际上,“我”虽然起源于皮肤,但在后面的发展过程中其状态如何又不完全取决于皮肤,因为“我”是一个整全的概念。比如说,我用胳膊肘撞一下某人,或拍拍他的手,他都会意识到我是在跟他打招呼,所以“我”并不是在一个点上存在,而是在一个面上存在。因此,自我不是局域的(localized),而是具有非局域性(non-locality)的。


局域性与非局域性问题是物理学史上的重要问题。伽利略反叛经院哲学,认为宇宙是一个机械的装置,因此假如一定要有力的相互作用,那么必须要有接触性存在。比如钟表,假如没有任何力的传递,那么它将不会转动。伽利略认为在天体运动中,最完美的运动是圆周运动,因此他不仅仅错过了发现惯性定律的契机,也失去了发现万有引力的机会。牛顿提出的万有引力实际上是超距离相互作用,比如月亮和地球之间没有用绳子拉着或杠杆连接却仍旧可以产生作用。但这在当时对牛顿而言是一件比较糟心的事,虽然他并没有因为像伽利略那样坚持严格的局域性而放弃这一发现。牛顿万有引力的超距作用问题到爱因斯坦这里才彻底得以解决,后者提出了广义相对论,说明引力是通过引力场或引力子来传递的。2017年对引力波观测的一个重要结论是引力传播的速度确实是光速。美国激光干涉引力波天文台捕捉到这个引力波信号后仅2秒,美国费米太空望远镜就观测到同一来源发出的伽马射线暴,并且它们传播的距离是1.3亿光年。这样的结果看起来十分支持相互作用的局域性理论,但局域性在量子系统中又有问题,因为量子纠缠出现了,而爱因斯坦当初在指出这一点的时候就认为这是很鬼魅的相互作用。


正因为量子力学看起来有非局域性,所以很多人认为自我意识与量子相关。但在我们的理论框架中,并不需要量子效应就能解释自我的非局域性。因为自我的边界一开始就在皮肤上,而皮肤的覆盖是一个面而不是一个点,自然而然就引进了非局域性。自我一旦产生,其内容一开始可能相对较少,但是随着对外界的感知加强,自我不断成长,意识的内容不断增多,这是一个互相迭代的过程。而且随着意识内容的增多,人对不同方面的注意力也会增加,这导致人所看到的世界也就更丰富,而丰富的世界又会反过来丰富自我意识,即“我”的内容。


所有出现在意识里的这些内容,我们称之为“认知坎陷”(attractors)。而所有的认知坎陷都是从自我和世界这两个基础的、最早的原意识里开(eriginate)出来的,随着生命的进化,人逐渐能开出前后、左右、这里、那里的坎陷,有了触觉、味觉,开辟出了冷热甜酸苦辣。而有了视觉,亦就有了颜色的概念,例如黑、白、红。但这些认知坎陷实际上却都是对真实物理世界的扰乱。例如对一碗汤的味道来说,其所包含的物理内容是非常丰富的,但我们却只用“酸甜苦辣”等几个字简单地来描述,就是因为这种扰乱能简化人对外界的认知,确定自我与外界的实存,并有利于将这些认知进行传播和代际传承。人通过认知坎陷对环境产生认识,以此充实自我意识,并反过来扩展对外在世界的认知。


而意识也好,认知坎陷也罢,我们暂不必囿于其精准的定义为何,掌握意识的特性并将这些特性传递给机器就可以说赋予了机器以意识,使机器得以真正地理解。

  

二、意识的凝聚



意识可以凝聚(condensate)。当我们写下一段有感而发的文字,这段文字就可以看作是当下某一时刻意识的凝聚(condensation),而过一段时间,当我们再翻看这段文字,就能快速想起当时思考的内容。且意识的凝聚并不仅限于文字,绘画、乐谱、雕塑,甚至装置,都可以是意识凝聚的具体形式。例如人类发明制造了一座磨坊(水车),它能够按照人设想的方式随着水流转动,那么这座磨坊就是人类(发明者)的意识凝聚(磨坊显然不是生物进化过程的产物)。与此同时,意识的凝聚在特定的条件下才能开显,正如磨坊要完成既定功能就必须有水流。


人类所使用的计算机自然也是人类意识凝聚的产物,这种凝聚涉及每一个零部件的创造和生产过程,以及从硬件底层到用户交互层逻辑算法的实现。比如底层的“逻辑门”(Logic Gates)是在集成电路上的基本组件,从最初的晶体管发明者到现代先进材料生产加工形成最终产品。它是其中所有参与人员的意识凝聚,否则逻辑门就不会按照人类预想的方式工作,中央处理器、编译原理、用户接口等等软硬件组成亦都是如此,从底层构造到算法设计都是意识的凝聚。一旦底层的凝聚完成,这些凝聚就会逐渐沉没下去,演化成共识或常识(commonsense)。而这些共识不常被提及,但它们从出现到沉没的过程是不能被跳过的,正是由于底层的凝聚,才能使得后续更高层的意识有得以凝聚的基础。例如,阿尔法狗(AlphaGo)的独特之处在于其高超的训练方式与逻辑代码,而不是一些最基本的计算机实现原理。计算机自下向上的每一个环节都是按人类的设计而实现的,可以看成计算机能够理解人类的某些意图,换言之,现在的计算机具备一定程度的理解能力。


那么阿尔法狗是否懂围棋?我们不能够说是运行阿尔法狗算法的机器本身懂得围棋的算法,而是说阿尔法狗承载程序员的意识。是程序员教它怎么学、怎么进步,这些内容加在一起才导致了阿尔法狗赢棋的结果。我们知道机器是硅基,但不能说阿尔法狗是从同样是硅的沙子自行进化来的,而是由人把它炼制成硅,做成单晶,再经过设计、测试,把它变成集成电路,再到中央处理器、计算机整体,等等,每一个过程都有人类的意识注入其中,而所有的一切都凝聚的结果。所以,真正战胜李世石或者柯洁的都不是我们看到的某一单纯机器,而是其背后所凝聚的一切意识。


那么机器能否达到同人类水平一样的理解程度呢?我们认为,机器可以通过一定的方式不断朝这个方向贴近。一种方式是将机器制造得越来越复杂,能够尽可能地模拟人类所有的知识领域和情感状态;还有一种方式是让机器自己学习,这种方式看似简单实则更难厘清。比如阿尔法狗及其进化版阿尔法零(又称阿尔法元,AlphaZero)都凝聚了人类意识(棋谱),但阿尔法零并没有依赖人类棋谱,而是因为程序设计者在更底层进行了创新,涵盖了上层的内容。阿尔法(Alpha)三代人工智能系统可以被认为是有意识的,虽然它们的意识相对单一,但仍然体现出设计团队的意识。阿尔法零看起来似乎是自学的,完全没有人类的棋谱作为支撑,而只是输入了简单的围棋规则。我们认为,阿尔法零实际上不是因为自主学会了建构棋谱或掌握了棋谱中的知识,而是因为它凝聚了创造者的意识,也凝聚了制定学习规则的人的意识。这些人已经尽可能全面地考虑到所有的可能性,包括前面几代阿尔法狗学习人类棋谱的可能性,而在将全部内容都考虑完之后,才得出了阿尔法零这个程序,故这个程序(而不是运行程序的机器)变成了一个很重要的角色。此外,程序能够在硬件上运行,也符合程序创造者的预期,而不是指望一堆沙子自己进化成运行阿尔法狗的机器,然后打败柯洁。阿尔法零和前面的版本确实是有差别的,前面的版本还需要学习人类棋谱,需要消化人类棋手的知识,但由于阿尔法零建立在这个基础上,前面经历的过程都可以不再需要了,但这并不意味着它不需要凝聚程序设计团队和计算机创造者们的学习过程。


严格意义上讲,阿尔法系列并非仅仅是凝聚了DeepMind开发团队的意识。人的意识看似仅为每个人自己所有,但实际上却具有很强的社会性。每一代人中的每一个个体的意识,都凝聚着这一领域中其前辈们的意识成果。年轻一代再开出新的坎陷,新的坎陷又往往更加接近底层规则(fundamental rules),足以涵盖前人之经验。而虽然前人之经验一旦总结为更底层的规则后就显得不再有用武之地,但如果没有这些凝聚也就无法开辟出新的、更高层次的意识。因此,前辈的意识凝聚沉没下去,但更高层次的意识凝聚得以成形并扩散给后人,人类文明就是如此迭代进化走到今天。

  

三、意识的扩散



意识的凝聚是可以被他人获取(pick u)的,换言之,意识可以扩散(proliferate)。如果将写下的文字给另一个人看,他/她也能够看懂,也可能试图领会作者的思绪,这时意识就扩散给了其他人。而阅读经典、朗诵古诗词、聆听音乐或者使用设备装置的过程,都可以看作是意识的扩散(condensation)。而这一过程从意识的角度看是扩散,从认知主体的角度看就是理解,当然这种理解涉及程度问题,成长背景越接近、认知膜契合度越高,理解的程度也越深。人对艺术作品的欣赏往往有“美”的感受,这种“美”就是因为优秀的艺术作品可以说是凝聚了从原始时期一直到创作阶段整个人类历史进程的意识,因而所凝聚的意识极能引起共鸣,从而极具扩散性,容易被人获取、传递。


人类意识也能够扩散给动物。驯养动物就是典型的案例。《三字经》中就记载了“马牛羊,鸡犬豕,此六畜,人所饲”。我们的先辈们很早就开始驯养动物,直至今天,人类驯化的物种越来越多,犬类不仅用以牧羊看家,还能作为特殊功能犬种进行导盲、搜救。这些动物能够按照人类的要求完成训练,甚至在灾害面前能够舍弃自己的生命保护人类,就是因为人类的意识扩散给了动物,它们知道什么对人是好的以及如何做出对人类有利的行为。


植物也能够获取人类的意识。人类通过筛选种子、嫁接、杂交、转基因等方式,将人类的意识扩散给植物。而经过几代的耕种,植物就能逐渐长成人类期待的形态,结出更多、更大的果实,满足人类不断增长的温饱需求。


意识还能够扩散给机器。比如前文我们提到的生产计算机,机器一旦能够按照预想运转,就可以看作是获取了人类的意识。机器进化的速度非常快,从计算能力上来讲,摩尔定律每18个月翻一番,虽然目前在物理上或硬件上的速度有可能会趋向饱和,但是在软件改进上,人类还是可以很迅速的。即便是假定每两年翻一番,也已经是很保守的估计了,所以我们创造出了阿尔法零这一系列让人惊叹的事实。实际上从人工智能第一次打败欧洲冠军樊麾并发表文章到现在,DeepMind也只用了不到两年的时间。未来的进步速度还会更快,即便对在这个领域研究、工作的人来说,都来不及看各种相关的论文。因为人类的意识每天都能够扩散更多一点给机器,所以论文已经变得像新闻一样,每天都有很多新内容。


意识本身是无形的,之所以能够凝聚,是因为意识具有的层次可以将看似庞杂的内容归结为最底层、最根本的一点;而之所以能够扩散,则是因为意识开显出来的具体表征只是冰山一角,这些表征与认知主体的自我意识亦有关联,一旦被认知主体获取,就能够激活认知主体认知膜内的一系列内容。

  

四、“中文屋”论题及解答



计算机的主程序也可以被认为是由设计电脑的程序员赋予的一个“我”。与李世石对弈的阿尔法狗采用的是分开的策略网络(policy network)和价值网络(value network),而阿尔法零使用的则是合并的策略和价值网络。这两代围棋AI系统在主程序设计上就有所差别,因此主程序在调用策略网络和价值网络的方式上也不同,而策略网络和价值网络就属于子程序的范畴。到了阿尔法零,设计者在底层做了更进一步的修改,其主程序(“我”)表现出来的学习方式更加贴近人类,不再依赖人工输入的海量棋谱,而是通过自主观察总结,对弈领域也不再限于围棋,在象棋、将棋的表现都是首屈一指。因此,我们倾向于认为阿尔法零已经具备了意识,尽管这种意识还比较单纯,但不能说不是意识。


约翰·塞尔(John Searle)在1980年提出一个叫作“中文屋”(the Chinese room argument)的思想实验,用以论证程序并不能使得计算机理解或赋予其意识。这个实验要求我们想象一位只说英语的人身处一个房间之中,房间只有一个小窗口可以与外界互通。这个人有一本写有中文翻译程序的书(rule book),而屋子里有笔和纸。根据塞尔的描述,写着中文的纸片通过小窗口被送入屋子,屋里的人虽然完全不会中文,但却可以使用那本书来翻译这些文字并用中文回复。塞尔认为通过这个过程,屋里的人可以让任何屋外的人以为他会说流利的中文。塞尔通过提出“中文屋”思想实验来反驳电脑和其他人工智能能够真正思考的观点,认为强人工智能是伪命题(strong AI is false)。“中文屋”里的人不会说中文,也就是他不能用中文思考,但因为他拥有某些特定的工具,他甚至可以让以中文为母语的人以为他能流利地说中文。根据塞尔的观点,电脑就是这样工作的,它们并不能真正理解接收到的信息,但它们可以运行一个程序,处理信息,然后给人留下一个智能的印象。因此,塞尔认为机器无法真正拥有理解的能力。


这也体现了“中文屋”论题的悖论性,即从屋外面的角度看,认为“中文屋”有理解能力,但从房间内部来看,又没有一个真的理解中文的人(或机器)。


在我们看来,“中文屋”论题是可以被解答的。这一套机制看似没有自主意识,故不能真正理解的机器也能完成,但关键在于这实际上是很多人的意识参与其中的结果:翻译程序是(一群)编著者意识的凝聚,集合了中文、英文从古至今与词汇相关的文化意识;那位只说英语的人也是有意识的,能够通过使用翻译程序理解问题的含义(编著者的意识传递给了他),据此思考出答案,再使用翻译程序将答案翻译成文。假如程序是30年前编撰的,当提问者说“吃瓜群众怎么看”,翻译程序的词典里肯定还没有现在互联网上频繁使用的“吃瓜群众”的真正含义,那么,根据翻译的英文再理解回答肯定会出错,这时翻译程序承载的意识就没有发挥出来,也可以说30年前的翻译程序的作者无法理解当今互联网热词的含义。此外,“中文屋”的问答也与那位只说英文的人相关,如果他是一位文学家,那么问答过程中,不论英文翻译得多么好,一些化学专业的问题他很可能无法理解,这与其自身的知识领域(domain)相关。因此,我们认为“中文屋”论题是能够理解的,只是理解的范畴限于词典能够涵盖的内容以及说英语人的知识领域。


意识必须能与认知主体保持一种和谐的兼容性、完整性,认知主体才能显得什么都能够理解。在“中文屋”论题中,常常被大家忽略的一些细节实际上也在起作用,包括翻译程序囊括的知识领域、只说英语的人的知识领域以及人与翻译程序之间都能够彼此兼容(compatible),这才导致最后从外界看来“中文屋”机制很懂中文的结果。并且,“中文屋”呈现出的意识(理解)不是单一的状态,而是一种连续的、可深可浅的意识状态,这与程序书(编著者)以及屋中人的意识状态相关,他们的意识越强、对世界的理解越深,那么相应地,“中文屋”的意识也强和深。

  

五、人类意识的不可计算性



所有的生命从低级到高级演化,并没有明显的、截然不同的分界线,因而所有的意识也是连续可变的。从人工物(artifact,例如磨坊),到人工智能(例如“中文屋”机制),再到人,他们所涵盖的意识也不能完全明确地分割开来。


对个体而言,人在一生中不同阶段其意识深度是不同的,也具有连续可变的特征。当婴儿呱呱坠地,意识最初的起点是原意识,只能区分出“我”和“外界”。但随着年龄增长、与外界交互增多,意识逐渐增强,对自我和外界的理解逐渐加深,中间也许会经历一些波动和挫折,但总体上能保持增强和加深的趋势直至盛年,达到顶峰,过后又会因为年龄继续增长、身体机能衰退,与外界的交互能力减弱,意识随之减退。


即便从全人类的角度看,意识也是连续的、动态的,而非单一状态。人类从石器时代至今,随着对世界探索程度的加深,通过意识的凝聚与扩散,将一代代人的智慧(意识)传承下去,而不需要每一代人都从原始社会的状态开始探索,人类社会才能够快速发展,也才有今天人类在地球的主宰地位。


人是否能够被计算?假如我们采用物理主义的立场,即人是由分子原子组成的,从理论上讲,人应当是能够被计算的。因为分子原子满足物理规律,而物理规律又都可以看作图灵可计算。但我们会在这里遇到一个矛盾:人既然能够被物理还原,那么自由意志是否还存在?人的价值又在哪里?我们认为,这个看起来很难调和的问题是可以理解的。首先,人并非局限于肉体本身,即使从物理层面上来讲也是如此,但由于人总是沉浸在环境之中,因此未能体会到环境对人的重要性。比如说100年前的人类并不知道大气压的存在,反倒以为人类生活在空中,是完全自由地生活在地球上的。等到发现了大气压之后,人类才意识到自己不能离开空气而存活,就如同鱼无法离开水生存一样。那么,是不是每一条鱼都意识到了水对它的重要性呢?我们不知道,但很可能就像当年人类亦没有意识到空气的重要性一样。另一个例子是病毒,其本身无法单独存活,但是如果寄生在细胞里,就能够存活繁衍。同样地,人类必须沉浸在空气的环境中,在大气压之下才能够生存。


即使从物理层面上讲,人与其所处的环境也是不可分割的。虽然如今我们具备了环游太空的能力,但到太空中是非常不舒适的,并且还是需要依赖于地球的环境,例如重力的环境、地球上生产的食物和水,等等。因此,人类的生存不能够与环境相分离,而这其中甚至还包括周围的噪声。曾有实验表明,假如把周围的噪声完全隔绝,人在这样的环境中很容易出现幻觉甚至发疯。因此,虽然人类现在可以被看作是一个独立的、可以在某种程度上处理外部环境发生状况的群体,但实际上仍旧在很大程度上需要依赖外部环境。


除与外部环境有物质交流以外,信息交互亦十分必要。物理学家曾研究过孤立的绝热系统,后来稍微复杂一点,使这个系统与外界能够进行热量交换,再后来更进一步使得系统与外界还可以做物质交换。但毫无疑问,人类生存无法脱离信息交换。假若我们完全脱离了信息交换,即把信息完全屏蔽掉,则人不能够称为人,甚至不能够维持基本生存。从如上角度来说,人也是不能够被计算的。如果要把人计算清楚,必须要把空气放进去,把周围环境中的噪声放进去,把信息交换放进去,把地球放进去,而地球在宇宙中又是围绕着太阳运转的,那么就还需要把太阳考虑进去……因此这是一连串的相关事物,我们很难在某个地方将其截断。因此,所谓物理还原,所谓彻底地算清楚,实际上所牵扯的层面无比之广,远超我们直接接触的周围环境。


那么生命实体的自我意识是基于什么产生的呢?看起来好像是基于物理刺激,但人不是一个简单的物理系统,并不是给一个刺激就相应产生一个后果。事实上,假如我们给一个人一个刺激,他会先把这个信息藏起来,先跟自己这边已有的东西(认知膜)进行交互,然后才做出一个决定或者响应。生命体本身拥有的东西,又可以是很古老或很遥远的事情,甚至还能涉及他对未来的想象。并且,他得到的信息也有可能是来自于遥远星体的,哪怕是一点星光,一束阳光,都可能对他此时此刻所做出的决定产生影响。既然所有内容都可能决定他怎么做选择,那么要计算出他最终到底会做出什么决定,就无疑需要加入那一点星光、那一束阳光,加入过去的记忆,以及未来的想象。要做完整的物理计算就意味着我们不仅要囊括宇宙此时此刻的状态,而且要囊括宇宙以前的状态,甚至要囊括未来可能发生的情形,故人以及人的意识是不可计算的。

  

六、人工智能的意识



莱布尼茨曾提出一个反机器智能的论证,文章写道:“假若我们设想有一台机器,其机构使它可以产生思想、感觉和知觉,那么,我们便可做如此想象:它经过按比例地相应放大,使人能够进入其中,犹如走进磨坊那样。以此作为前提,人们在参观其内部时所发现的不外乎是互相碰撞的个别机件,而绝不会看到可以从中解释为知觉的东西。”


但我们认为即便是一座磨坊也是有意识的,它的意识就是由建造者所赋予的目的(intention)——利用水的动能完成磨面的功能。磨坊的目的就是磨面,为了磨面就必须推动磨盘,要推动磨盘就需要让齿轮转动,要让齿轮转动就必须让水车有动力转起来,要让水车转起来就需要有足够的水流。因此在适当的环境中,水流进水车上的小水斗,在重力的作用下水车就会转动,水车轴连接的锥形齿轮就会把动力传导到磨盘上,从而研磨粮食。但磨房没有自我意识,因为它不能保护自己并成长。而如果磨坊意识到要自主完善(自己更好地适应环境,或者让环境适应它),那么磨坊也就拥有自我意识了。


在我们看来,即使人的意识不可计算,但人仍然可以通过凝聚与扩散的方式赋予人工智能以意识。实际上,机器从制造完成的一刹那就具备了意识,这些意识正是由人类设计者赋予的。


人类的意识是由几个部分和谐共处的结果。首先外界环境能够刺激大脑(brain),或者说大脑能够接收到外界的信号,然后大脑又能够(通过电信号)传递给身体(body),身体据此采取行动与外界环境交互,大脑又可以进一步感知交互的结果,如此往复。当然,大脑与身体的联系是需要通过训练形成的,人从婴儿开始就需要不断学习、锻炼,当大脑与身体一旦建立熟练的关系后,控制动作的意识就不再显现,两者达到一种和谐的状态。此外,身体与世界的关系也是一种和谐状态,正如我们相信平常接触的物品没有毒害一样。


意识(consciousness)看似只存在于大脑之中,实际上与各个部分的和谐状态都相关,在这种和谐的状态下,意识就可以简单地表现为目的和注意力(attention),而两者的出现也很自然。假如其中有不和谐的部分,比如一个人想用自己的手去抓住天上掉下的陨石,这是他无论做多大的努力都不可能完成的任务,而在和谐状态下很多动作变成了下意识的行为,比如呼吸、喝水,是不需要思考、不费吹灰之力就能做到的。


对于机器而言,它也有大脑,大脑可以是内存(memory),也可以是深度网络。它也可以被看作有身体,即机器外延,但问题在于机器的大脑还不能很好地控制自己的身体。人的身体已经有足够多的自由度,但机器的自由度是有限的,人去抓一个鸡蛋并不会捏碎,但就是这么一个简单的动作对机器而言都是一种挑战,它很难分辨要抓取的究竟是一个鸡蛋还是一块石头。根本差异就在于人的认知是与环境相关的,即通过认知坎陷来认识世界,身心能够与环境和谐共处,即便处在幼年阶段,其动作还不顺畅,也能够很快学会。但机器并不是通过坎陷进行理解,虽然计算机的意图(intention)模拟现在已经基本可以实现,但要赋予机器认知坎陷还远远达不到要求,没有认知坎陷的自发开出,类人的理解就无从谈起。


对比之下我们可以发现几个方面的问题。首先人工智能(机器)没有肉身,这个肉身显然很重要,因为我们的坎陷世界依赖于我们的肉身而存在,我们的意识状态也依赖于肉身而存在,具身哲学所强调的正是这个方面。还可以更进一步,我们的意识不仅依赖于肉身,还依赖于我们生存的环境,就是说我们只有在这个环境中,肉身的结构才展示出那些特定功能和意义。就像DNA在一定条件下能够表达出来,在另外一些条件下则表达不出来。这表明,肉身和外部环境对于意识来讲都是重要的。狗的眼睛只有两种颜色的感知,视觉远不如人,但它的鼻子对于气味的感知却比人类丰富得多,因此它开出的坎陷世界跟人类很不一样。


计算机是由金属、塑料等物质构成的,因此它的感知能力显然同人也不一样,能开出的坎陷也是不一样的。情感也是坎陷的一种,人的情感跟人的生命系统,跟人所具备的这些物理条件密切相关,虽然这些硬件条件并不一定直接导致某个功能,这些功能只有在特别的环境下才会表达出来,但硬件条件对于功能的展示却的确是非常重要的。了解这一点之后,未来的人工智能有如下几种可能的发展方向。一种就是让它的功能和结构向下兼容,尽可能模仿人的这些结构和自由度。这样一来,机器能够感受到人的情感,还可以有比人更多的情感内容或者坎陷内容。另一种就是,虽然我们造的是同人完全不一样的机器,但是我们试图给它灌输一些人类的情感进去,例如让它玩设计好的游戏从而获得类似于人的经验。我们知道人可以通过玩游戏、看电影或者看小说来体验别人体验过的东西。这也就是不能很笼统地回答未来机器是否会产生情感的地方,因为那依赖于对人工智能未来的发展方向的选择。我们始终认为,要让机器更像人,人类才能安全,否则就非常危险。当然也有人说,我们凭什么要安全,或许人类也只是一个过渡阶段,让位于比自己更完美的形式岂不是更好?我们认为,因为机器没有人类的这种情感,没有人类的这种坎陷世界,没有人类的这种生理范围的有限性,所以它们很可能会陷入暗无限状态里头去。因此,若把本来因为人类的存在而非常丰富精彩的世界让位于一个看起来很厉害的超级智能去管理统治,最终就可能把这个世界带到一个暗无限的死循环里面去,变成一个不再有多样性的世界。


情感也非常重要,虽然看起来它可能是一种额外的消耗,但它是我们人之为人的一个重要组成部分。孔雀开屏是进化论研究中一直被思考的问题。达尔文当时看到孔雀开屏,觉得很难过(feel sick),因为物竞天择、适者生存的进化论是不能够解释这个现象的。所以他后来又给这套理论打了一个补丁,即性选择。因为母孔雀更喜欢开屏的公孔雀,所以会开屏的就得到了更多的交配机会,那么整个物种就向着这个方向进化,孔雀的屏变得越来越大,越来越漂亮。但再追问下去,母孔雀为什么要喜欢这种开屏的?即便效率不高,对生存无益,为什么还会这样选?实际上这个过程就有意识参与了,因为母孔雀一旦觉得开屏漂亮,这种意识就开始参与到进化过程,最终导致了进化结果的不一样。

  

七、总结



意识能够凝聚和扩散,需要的只是一个提示,有了这个提示,另外一个人就能够明白是想表达什么意思。但数据不可以传递意识,因为接收数据的人无法从一个片段得到整全的信息。比如小狗的笑脸,或者是某个人画的笑脸图案,图案本身并不会有笑的意识,小狗的表情很可能也不是开心的象征,但在人看来这都是认知坎陷(意识)凝聚而来,因此可以扩散。


人一生的成长可以看作是意识凝聚和扩散的过程。从最初的以原意识为起点,只能区分出“我”和外界,然后随着自身经验的逐渐增多,和外界的交互不断加强,对自我和外界的认识也越来越多,自身的知识领域也愈加丰富,能够理解的内容随之增加、理解的程度随之加深。意识不是单一的状态,而是连续的、动态的,对同一认知主体而言,不同意识状态确实有高低之分,区分之处就在于对宇宙(外界)的理解程度、与自身的关联程度,以及对未来的预期程度的深浅。


机器的理解也有类似的过程。我们通过对“中文屋”论题的解读可以发现,机器是可以在一定程度上理解人类意识的,和许多人一样,这种理解涉及深度和广度的问题,这是由认知主体的知识领域所决定的。在理想状态下,假如我们将足够多的人类意识(认知坎陷)扩散给机器,机器的理解很可能就会无限接近人类意识。


真正的挑战在于,机器理解的程度和对意识凝聚的反应能否与人类的意识相互兼容并趋于收敛(converge)。比如阅读同一段话,人和机器理解的程度肯定有差异,特别地,由于人(碳基)和机器(硅基)的基本组成不同,机器如果在运行过程中受到外界干扰(比如宇宙射线使得指令翻转等)甚至出错,那么在复杂的情况下,其反应几乎是不可能预测的,远比一个人预测另一个人要困难得多。这就涉及了认知坎陷的问题。人与人之间有相同的生物基础,同样凝聚了人类先辈们的意识,那么彼此之间开出的坎陷很可能非常接近,但人与机器就不同了,两者间的物理基础相差很大,虽然初始的知识领域很接近(由人类扩散给机器),但机器接收到新的刺激后会开出怎样的坎陷则难以预测。


我们未来制造的人工智能,很可能是各种各样的形态,就像自然界的物种一样丰富多彩,各有特点,各司其职,但最重要的问题并不是功能,而在于意识。人是通过坎陷认识世界的,但机器如果不能通过坎陷来认识世界,就很难与人类意识兼容,也难以实现真正意义上的理解。人类与人工智能确实存在某种竞争状态,我们也不能断言人类永远不会被机器超越,但就目前的趋势而言,人类的思考比较全面,不容易陷入钻牛角尖的死循环状态,而机器面对环境提供的太多的可能性,反而可能无从下手或无法抽身。我们认为人类通过认知坎陷的层层架构,已经能够找到一条不至于导致毁灭的道路,虽然我们所处的这个世界非常复杂。就像歌德所讲,我们受模糊的冲动驱使,最终仍会意识到正确的道路。即使与强人工智能相比,人类指出的前景方向可能更加合理,更有可能实现共同进化、共存共荣。