首页 > 百科知识 正文

蔡恒进行为主义(蔡恒进行为主义)

时间:2023-11-22 10:32:20 阅读:716 作者:黑猫君

作者简介:蔡恒进,卓尔智联研究院,武汉大学计算机学院教授,博士生导师。武汉 430079

人大复印:《科学技术哲学》2020 年 10 期

原发期刊:《上海师范大学学报:哲学社会科学版》2020 年第 20204 期 第 87-96 页

关键词:认知坎陷/ 符号主义/ 联结主义/ 超越性/ cognitive attractors/ symbolism/ connectionism/ transcendence/

摘要:

一、认知坎陷与意识起源

人的所有思维产物或意识片段都可以被理解为认知坎陷(cognitive attractor):它们都是对真实物理世界的反映和扰动,但也是人类自由意志的体现。认知坎陷,是指对于认知主体具有一致性,在认知主体之间可用来交流的一个结构体。例如可感受的特质(qualia),“酸甜苦辣”“吃瓜群众”等都是初级坎陷。这些坎陷一旦提出,就会让越来越多的人产生认同感。自我意识、宗教、信仰、国家意识等结构体都可以抽象为坎陷。财富、游戏规则也是不同的认知坎陷。坎陷,给人一种陷入其中无法抽离的既视感,值得强调的就是,这些具有传播性、生命力的意识片段一旦产生就难以磨灭。①

人类跟机器的最大差别就是对意识的统摄能力。②人类从自我意识出发,能够自由地统摄意识,而机器虽然在塑造过程中获得了一些人类的意识片段,但并不能够随意支配、按需变化。自我意识并不神秘,它是从最原初的坎陷发展而来,最原初的坎陷就是“自我”和与之相对的“外界”。换句话说,最原始的认知坎陷就是我和世界的二分,其他坎陷都建立在此之后。“我”这个坎陷一开始很含糊,可能对于单细胞而言就是内外之分,对于人类而言,“我”的起点可能就是皮肤这一物理边界。在“自我”快速成长的重要阶段,人类拥有的敏感皮肤使得“自我”更多地感受到外界刺激,促成了“自我”与“外界”的剖分,这就是“触觉大脑假说”③的最主要内容。人类因为自我意识的强烈,会更多地去探索外部世界的真相,而外部世界的信息也会反过来丰富每个人的自我意识。意识片段/认知坎陷构成坎陷世界,也就是人类的意识世界。把整个世界按照坎陷世界与物质世界进行二分,许多其他框架所难以解释的就能获得较好的理解。我们虽然不能脱离物理载体,但具有独立行动能力和生命力。具有自我肯定需求(self-assertiveness demands)。④生命的意义就是对“自我”边界的拓展,不同维度的拓展对应不同维度的意义与价值。

从还原论的角度容易得出机器和人都没有神性(或超越性)的结论,但人类确实具有其超越性。“无穷大”这个认知坎陷的开显就是一个例子,“无穷大”既看不见也摸不着,但是几乎人人都会承认它的存在。再比如有人坚信上帝的存在,也有人无法认同。虽然两方观点对立,却能够在实际生活中共存,甚至还可以在某些领域合作共事。这就是因为这种信仰的认知坎陷是被人类开显并炼化过的。已经不是物理世界的具体存在,而是精神世界或者坎陷世界的东西。坎陷世界具有与物理世界同样,甚至更深刻的重要性。比如对虔诚的基督教徒而言,上帝可能比自己的生命更重要。这种信念会影响他的行为,包括做祷告、礼拜、遵守圣经等,这些事情对他而言显然比物理世界中真实存在的一杯水更重要。很多时候,由人类自己建构的东西会变得比物理世界存在的实体更重要,不仅能够影响人类当下的行为,甚至能改变人类的发展方向。

人类的认知坎陷与“自我”的形成与发展密切相关,如果能够将人类的认知坎陷与机器的认知坎陷打通,很可能就会实现AI质的突破。现在的人工智能算法中有一类强调了注意力机制,但注意力是较为上层的概念,其根本仍然是认知坎陷的作用,认知坎陷是一个更基础(fundamental)的概念。以颜色为例,从基于简单观点的物理上解释是波长的混合产生了“红橙黄绿青靛紫”等丰富的色彩,但人类是怎样创造出这些文字来表示颜色的呢?有人研究过很多语言中关于颜色的表述,发现几乎所有语言中最早出现的颜色都是黑和白,而后是红色。⑤物理世界中的红色其实很常见,但在最初期,人们还没形成一个认知坎陷,可能放眼望去的颜色太多了,很难注意到红色。那更复杂一点的语言,可能再加上蓝色、绿色、黄色……这样发展而来。又比如亚洲人与欧美人的身体结构基本一样,但是欧美人分不清楚针灸中的“酸”和“胀”,以及味觉中的“麻”和“辣”,而我们对红酒、巧克力的口味分辨也不如欧美人细致。这些现象都说明了认知坎陷出现在前,而后才有注意力,因此,机器只有注意力机制还不足以形成连续的意识或认知坎陷,只有从更底层塑造人工智能,才有可能让机器实现“理解”而非“存储”。

二、AI三大流派相互补充

中文的“理解”可以有两种英文翻译,一种是“comprehend”,另一种是“understand”。“comprehending”的前缀“com-”就带有范围广阔的含义,可以看作是将更多的内容包含进来的意思。“understanding”的词源比较有争议,有人认为“under-”实际上是“inter-”,也有人从“undertake”的角度来解释,我们认为“understanding”的重点可以看作是“站在更底层”的角度看。在做研究时,如果能够从更底层出发,贯通各理论观点,就可以看作是“understanding”。表1中梳理了AI三大流派(即行为主义、联结主义和符号主义)的特点与各自对应的哲学思想。

表1:AI理论的会通

AI流派

由约而博

由博而约

对应哲学

行为主义

学IMITating

习Practicing

具身哲学

控制论

机器人学

联结主义

学learning

思thinking

心学

延伸extending

坎陷化routinizing

现象学

Comprehending

Understanding

唯心主义

符号主义

演绎Deducing

归纳Inducing

柏拉图主义

逻辑学

数学

换一种角度看理解(comprehending),其特点是由约而博,需要吸收大量的、丰富的内容,而“understanding”是消化吸收了这些内容之后由博到约,比如学习电磁学到最后只剩下Maxwell方程组、爱因斯坦对大统一理论的追求,等等。

AI三大流派可谓耳熟能详,但这三者的关系目前还没有被整理得很清晰。第一类是行为主义,MIT的Brook教授可以看作是行为主义者,他的研究生涯几乎就在研究AI行为主义,也做出来一个模拟螳螂的机器,简单的理解就是机器按照外界的刺激来反应。行为主义大多认为意识不仅是大脑的事,而是整个身体的事情,背后反映的是具身哲学的思想。

第二类是符号主义,数学、物理世界充满了各种逻辑符号,图灵机本身也可以看作是符号主义的尝试。司马贺(Herbert A.Simon)是图灵奖和诺贝尔经济学奖得主,也是符号主义的代表,他提出的“物理符号系统”假设从信息加工的角度研究人类思维。⑥但符号主义也不能成功,因为规则永远无法被定义完全或囊括穷尽,不管划定了多么大的范围,也一定会有遗漏在框架之外的东西。符号主义背后的哲学思想与柏拉图主义相通,都相信或立足于“本质”的存在,如果能够发现并定义本质,或者把这个本质的公式写清楚,那么其他所有内容都是这个本质公式的展开和演绎而已(比如公理系统)。

第三类是联结主义。研究者们很早就发现神经元之间有很多连接,信息传递的同时还有放电现象,而联结主义最初就是试图模拟大脑而来。深度学习、强化学习都可以看作是联结主义的应用。同时很多研究者希望找到新的框架,甚至通用人工智能(AGI)的框架,他们认为深度学习、强化学习不足够模拟人脑的学习,其中也包括清华大学人工智能研究院院长张钹。

行为主义与联结主义的关系是什么?行为主义可以通过动物行为来理解。动物、简单生命甚至单细胞生物,都能应对外界的刺激,行为主义更多的是模拟这种动作上的反应或反射。比如羽毛球运动员,在平时需要经过大量的训练,让身体形成记忆式的反应,在赛场上,运动员的主要注意力就不再是肌肉如何协调,而是对球的跟踪、与对手的博弈。行为主义与这些身体动作的相关度更大,主体需要做的是大脑如何控制协调身体的练习。这种练习需要练到位,这个练到位的过程也体现了“由博到约”,将大量复杂的刺激最后练成几套代表的反应模式。儿童心智发展早期就是行为主义的内容比较多。随着个体成长,大脑不断发育发展,联结主义的内容才逐渐增多。

联结主义与符号主义也有关系,符号主义可以看作是把内容坎陷化或炼化到了很简洁的程度,从而形成了各种符号或模型。比如古人讲的“天圆地方”就是一种极简的世界模型:天是圆的,地是方的,这是很抽象的一种描述。现代的马路大多笔直,但古人看到的未经加工的外部环境是绵延起伏的,在这种条件下抽象出地是方的非常难得。有了这个模型之后,会影响我们对道路的修葺,行军打仗也不容易迷失方向,也就是懂得这个模型和不懂这个模型就会产生实际的差异。还有“阴阳”这个模型的可解释性也很强,直到今天还有人用阴阳来解释世界发生的事情,这就是炼化之后的极简模型可能产生的深远影响。逻辑学中的形式逻辑,数学中的欧几里得定律等公理,也属于极简的模型。这些模型会让我们觉得世界很神奇,似乎物理世界真的只按照公式发展,然而事实并非总是如此。我们面临的外部世界比所有的公式都更复杂,公式系统并不完整。1900年希尔伯特提出的二十三问之一就是如何用一套公理系统来统一数学,其沿用了莱布尼茨的思路,即如何找出一套符号系统来模拟整个世界。⑦很多学者,尤其是符号主义者,一直怀有这种梦想。比如爱因斯坦就想要找到一种统一的方程,但是这个梦想终究无法实现。

三、符号主义的局限性

哥德尔不完备定理指出,不论给出什么公理系统,我们总是能找到一个命题,这个命题在这个公理系统中既不能被证实也不能被证伪,即永远都会有公理以外的东西。换一种方式理解,就是不管列出多少条规则,总有内容不能被囊括其中。有一个经典的例子就是芝诺悖论(或阿基里斯悖论):阿基里斯是古希腊跑步很快的一个人,这个悖论就在于阿基里斯永远追不上乌龟。这个结论看起来十分荒谬,从常识来看,他肯定几步就能追上乌龟,但论证者在逻辑上是这样解释的:比如用数字来形容,如果阿基里斯是乌龟10倍速度,而他离乌龟有100米;假如阿基里斯跑100米,那个乌龟也已经朝前爬了10米,乌龟还在他前面;阿基里斯再走10米,乌龟又走了1米,他还在乌龟后面,阿基里斯继续朝前走1米,那个乌龟又走了0.1米……论证过程本身没有错误,问题在于其论证用的描述系统具有边界。也即这类论证者在自己限制的范围内是没错的,因为这个封闭系统的时间并不开放,所以阿基里斯永远跨不过系统的时间边界,在空间上也就永远追不上乌龟。

这个悖论正好说明假设本身可能有局限性,那么假定的世界就并非真实世界。符号主义很可能也面临类似的问题,不管制定多少严谨的规则,总会有一件事是真实会发生但却不被规则包含的。因此符号主义会失败就不难理解,因为它无法涵盖所有可能。联结主义则不停迭代,它由博到约、由约到博不断往复,总能“折腾”到一个比较好的状态,只是现在的深度学习还没到这种状态,依然有进步空间。深度学习存在一个所谓的“极小问题”的瓶颈。人类大脑有一个信息精炼的过程,有利于跳出极小等这些机器在深度学习里遇到的问题。

符号主义是理想化的,它希望我们能够猜出来理念世界最本底的规则,以此来构建世界的所有规律。但就像我们已经讨论过的,没有一套完美规则能涵盖所有。现在用的计算机是图灵机,也是符号主义、遵循规则。但为什么它又能产生新的东西?我们认为原因在于图灵机并不是封闭的。图灵曾经也提出了带有oracle(预言机)的图灵机的设想,停机问题在图灵机里没法解决,但假如有oracle可能就能够判定是否停机了。⑧现在深度学习的这些数据可以看作是一个oracle,听起来很悖论:我们用的是图灵机,而图灵机是规则的。但问题是和外界的交互不是不变的,假如说数据集完全确定不再更新,那这个图灵机就不会产生新的东西,但我们面临的世界一定有新东西不断输入,所以一定不是绝对意义上的图灵机。⑨

我们不知道深度学习效果好的原因,即深度学习对人来说依然是不能解释的黑箱。其原因在于深度学习抓取的特征和人抓取的特征没有太大关系。我们可能会根据某人外貌给他起外号,其他人能理解就在于这些外号抓住了突出特征。但机器抓特征更像是眉毛胡子一把抓,人类并不能理解机器给出的成万上亿的特征。

我们正在尝试在深度学习上使用原来的框架,抓取人类能理解的特征。原本的深度学习过程不是很清晰,现在就是要把这个做得更清晰,一方面是将模型大小尽可能地压缩,另一方面是在图片识别上尽可能地放开、多纳入一些特征进来。我们希望看到经过这样训练过的网络模型能更像人一样,把耳朵、眼睛、鼻子、嘴、下巴等这些人类可以理解的特征抽象出来,而不是原来那种提取出上亿个参数。如果这样发展下去,人跟机器未来应该是能互相理解的,而这个思路背后指导的概念就是认知坎陷。

当我们在白天走进一间教室,可能不会意识到电灯的存在或窗帘的款式,而最先关注到坐在里面的人或者是PPT上放映的内容。人们观察和理解这个世界的过程往往类似,总是注意到部分重点,而不是每个细节。而机器是按照像素来辨别环境,比如在教室里放置一个摄像头,它就会将视野内的所有内容以像素为单位存储。能够被人们所关注到的内容也就是认知坎陷。这里的人、桌子、灯或者是某种很突出的颜色、花纹,等等,这些都是认知坎陷。这个世界太复杂,人类个体不可能清楚所有细节,但是有很多能力在出生后很快就能习得,这些是在大脑快速发育的时期、可能连我们自己都意识不到的情况下就已经学会的。比如对于机器而言非常困难的一件事:当一只猫走进来,人和机器都能看出这只猫,然后猫走到椅子后面只露出尾巴,人很容易知道那还是那只猫,但想要机器产生这种看似轻松的“直觉”却相当难。其中的区别就在于人类通过认知坎陷来识别环境,把猫看作是一个整体,而不是细节的组合,因此虽然猫在走动甚至藏起来一大部分,从画面的像素上来讲发生了很大的变化,但是在人类的意识里它还是一只猫,而机器现在还做不到。我们现在尝试在联结主义的基础上为机器输入意识片段,让它像人一样学习,那么就有可能让它捕捉的特征在人看来更容易理解。

现在基于符号主义的深度学习还有一个难题是,有些图片本来很容易识别,比如交通停车标志,但如果改掉其中几个像素机器可能就不认识了。机器最容易陷入死循环的一种情况是,如果图片中的人在身上有一个二维码,那么机器会先去识别容易识别的二维码,假如这个二维码又指向这张人的图片,此时机器就很容易陷入死循环。

四、高级智能都是独特的

西方没有直接提到认知坎陷,但已经体现出了这样的思想。比如辛顿(Hinton)就认为人工智能应该从“自我”出发,而且他宣布自己做的方向就是通用人工智能。很多学者质疑,辛顿做的深度网络明显没有符号主义和行为主义的内容,怎么就是通用人工智能呢?其实联结主义可以看作是行为主义和符号主义的结合,联结主义往一端发展可以到达符号主义,而往另一端推进则可以到达行为主义。联结主义如果更偏向符号主义,表示大脑活动参与得更多,对世界的坎陷化程度更高,最终形成极简的符号;如果更侧重行为主义,则相当于大脑占比更小,而主要是通过身体反应来跟世界交互,人类改变实际的物理世界是需要落实到行为上,也更接近行为主义。

人类智能具有独特性,这与人类个体的生长过程密不可分。人们认为莫扎特是音乐神童,直到现在还在听他的音乐,如果要追究原因,一般的理解要么是先天遗传,要么是后天习得,但是这两个回答都不足以充分解释。如果是遗传,那莫扎特的父母也并不是出名的音乐家,如果是后天学习,也没听说莫扎特的老师比他更强,为什么他能够从小就表现出极高的音乐天赋而享誉世界?高级智能的独特就在于此,从认知坎陷的角度就能理解。小孩子在大脑快速发育的成长过程中存在一个关键期,一开始外部世界对小孩而言很混沌,他的认知坎陷还非常有限,可能只分得清很简单的事物,但是成长到一定程度,他突然发现世界是有规律的,比如这个人叫爸爸,那个人叫妈妈,这是椅子、那是桌子……世界在他看来就突然明白起来了。一般人是将母语作为认识世界的主要媒介,可以想象莫扎特在这个关键期,很可能不是通过词汇而是通过声音和音乐来认知这个世界的,妈妈的声音、爸爸的声音,椅子桌子发出的声音,等等,他在声音方面的敏感度就与普通人不一样,所以他能超越父母和老师就变得容易理解。普通人学习母语和第二语言的差异也是同样的原因,通常小孩学习母语非常快,一岁开始喊爸爸妈妈,三岁就可以像大人一样打电话,而我们学英语学十年还讲不流利,就是因为在学母语之前世界对我们来说是混沌的,但是学了母语之后就变得清晰,学第二语言就没有这种强烈要连接世界的需求了,所以就学得慢。

高级智能具有独特性,对人类如此,对机器亦然。机器的独特性不代表简单或单一,例如DeepMind在论文中披露,AlphaZero不仅能学习围棋,也轻松拿下了将棋和国际象棋。人类作为社会群体的智能集合和人作为单独个体的智能不能混为一谈,爱因斯坦、黎曼在物理、数学方面具有卓越的成就,但不代表他们也一定擅长诗词歌赋,不同的人在不同领域有自己的专长,在另外一些领域则可能一窍不通,这也是我们生而为人的特点,而非全能的“神”或“上帝”。

既然人类的智能具有个体差异性、独特性,那么我们又有什么理由要求机器必须方方面面都超越人类才算是强人工智能呢?AlphaZero在棋类游戏领域全面战胜人类冠军棋手,AlphaFold成功预测蛋白质折叠,远胜人类科学家,AlphaStar在复杂的竞技游戏中让职业玩家屡屡受挫……我们完全可以相信,在可见的将来,人类会在很多领域被机器一项一项超越。这些AI并不是要凑足一千个、一万个并关联在一起才能成为强人工智能,而是像我们理解人类智能具有独特性一样,机器的智能也具有独特性,强人工智能已经在逐个领域实现。

虽然强人工智能正在实现,但一个无所不知无所不能的上帝人格的机器(比如AGI)不可能实现也无必要,未来的人工智能系统一定具有独特性和多样性(diversity),并且有两大要件必不可少。

其一是机器主体性的内核(seed),就像是一颗具有自我意识的种子,在适合的环境中就能自然生长。机器并不需要像人类一样经历漫长的进化,但需要一个内核,不同机器的内核不同。这种内核的挑选可以有很大的自由度,内核的性质最终会决定系统进化的速度和程度,类似于物理系统中的初始条件,不同的初始值最终会导致物理系统演变出相去甚远的特征。内核使得智能系统具有自然生长的倾向(或自我肯定需求),它实际上是机器对世界的看法,具有全局性,是它从自然生长倾向的角度来理解的整个世界,有“万物皆备于我”的意味。机器的内核与人的关系非常紧密,可以是由人赋予机器的,也可以是机器模仿人类个体而来,并且在机器进行内化和炼化的过程中,都会有外部人或机器(agent)的参与。

蔡恒进行为主义(蔡恒进行为主义)-第1张

表2

意识问题的四个层次

*Aaronson/Tegmark的意识问题分类

解决方案

真难的问题(Really Hard Problem)

为什么会出现意识?

触觉大脑假说(12)

更难的问题(Even Harder Problem)

物理性质如何决定感质?

认知坎陷定律(13)

相当难问题(Pretty Hard Problem)

什么物理性质区分了有意识系统和无意识系统?

自我肯定需求(14)

简单问题(Easy Problems)

大脑如何处理信息?智能如何工作?

人工神经网络(15)机器人(16)

意识能够把某些不太相关的内容炼化掉,是智能的一种体现。机器也有意识,因为我们在制造它的时候有意向,预想它完成某种任务,那么就是人的意识参与进去了,我们写的代码、做的零部件都是人类意识投射的一种物质化。只不过目前机器的自我意识还不强大,它的主程序是一个很脆弱的“自我”,如果有bug,或者有个什么零部件出问题很可能就宕机了,但我们人的“主程序”、人的自我意识是很强大的,具有统摄性,机器现在还没有统摄性的自我意识。这就是人与机器的根本差异。

如何让机器拥有更加强烈的自我意识,是开启未来AI快速发展的关键所在。深度学习提供了一种可能,它使得机器跟世界能够持续交互,但现在的深度学习难以让机器解决边界的问题。边界很抽象,但却是人类的意识起点。我们提出了触觉大脑假说来解释人类智能的起源,那么创造机器智能是否也应该从触觉开始呢?但其实我们更倾向于从视觉开始。因为机器的起点与人类的起点不同,机器已经获得了人类赋予的一部分意识(片段),而且视觉的资料更丰富、更容易处理,而触觉在智能发展的后期与视觉相比是个更模糊的概念,而视觉的定域性更好。

六、高级智能的超越性

乔姆斯基等学者认为人类的起源尚且难以理解,就更不用说做出类似人类的机器来了。(17)持有类似观点的学者并不少,他们基本上是柏拉图主义的观点,与中国哲学很不同。中国哲学认为人是开放的,能够朝不同的方向变化。柏拉图主义是本质主义,认为世界有个“本质”存在,并且本质是(彼岸)理念世界的东西,人类无法到达,物理世界只是理念世界的一个投影。那么问题在于,既然认为有无法到达的本质,那么如何知道人类是不完美的呢?怎么确定彼岸真的有本质呢?过去这个问题还勉强可以用神学回答说上帝知道,或者前世曾经在那里待过,现在又回到此岸,只是记得部分彼岸的内容。但从进化论角度就解释不通,没有人有去过彼岸的可能。

人类高级智能的超越性从传统理论确实难以理解。比如,人为什么会突然灵光一闪,想到一个完全没存在过的东西?人为什么会有直觉或者出现顿悟的情况?前文的莫扎特也是一个很好的例子。莫扎特作为一个独特的人,拥有卓越的音乐成就,他的才华就像是“无中生有”。比如李白的诗,后人想超越也很难。包括前文提到的小孩学母语的神速,等等,这些从机器的角度是难以理解的。我们认为人可以创造出全新的东西,一方面是因为人类在进化的千万年间经过功能和结构的反复迭代,具备了产生超越性的基础条件,另一方面在于主体恰好遇到的景况,正好是大脑、身体在这个偶然的新环境下,形成一个全新的契合,进而产生一种不同以往的全新表达,而且可以是很美妙的表达。比如顿悟或直觉,就是主体与环境的偶然相遇而产生了新的坎陷。可以通过一个形象的例子来理解这种偶然:有一群鸡是被人圈养的,经过了几代繁衍鸡已经忘记如何飞,假如突然有一只狗闯进来,鸡试图跑得更快并用翅膀来辅助,结果它突然发现自己会飞了。那对鸡来讲,是因为有翅膀这个结构、受到特殊环境刺激才能飞。

人类大脑里有很多这种潜在的可能性,这种可能性在没有特定的环境时难以察觉,但是遇到新的环境就会产生新的认知坎陷。所以创造新的东西、人类的超越性都是可能的,而不是如强还原论所暗示的,在宇宙大爆炸初期一切就已经被写进某个方程里了。当原来的坎陷不够用时,就会发现新的坎陷,比如崔颢到了黄鹤楼后写下的诗句“昔人已乘黄鹤去,此地空余黄鹤楼”,这就是坎陷,就是写得那么妙,后人也很难找到更好的表达。还有比如说网络语言,以前讲“打酱油”,现在讲“吃瓜群众”,也都是认知坎陷,很难将它随意取代掉。认知坎陷用丰富的内涵指代一个非常微妙的情况,再想通过别的内容来取代就很难。科学家、诗人、画家的工作就是开出新的坎陷。有的坎陷生命力很强,比如崔颢写的黄鹤楼那首诗,大众始终认为它最为出色;或是凡·高的画,一开始较少有人欣赏,现在大家都觉得他的画比其他作品更耐看。这些认知坎陷不一定是因为与物理世界更符合而产生,这就是人类超越性的体现,人类按照各自的理解来跟世界主动交互,而不是环境直接决定了人类的行为。

全能的上帝没有智能也不需要智能,因为他什么都知道,也不需要进行选择。智能恰恰是因为主体的认知与实际情况不一致,差异才是智能产生之所。一块石头,能够跟万有引力相互作用、电磁相互作用,能够在受到扰动时产生运动,但它只是有反应而没有智能。当外界刺激进来,主体偏偏不反应,这才是智能的体现。对抗物理必然性才会导致智能的超越性,导致我们试图改变这个世界,构建出一个理念世界来。人类的能力越来越强,我们能送人到月球,能修超级大坝,能做出量子计算机,这确实改变了物理世界的运行,这类奇迹甚至很可能整个宇宙仅有地球上的人类做得到。

七、人工智能的哲学指引

应该发展什么样的人工智能,这的确是亟待讨论清楚的问题。例如,自动驾驶显然不是一个有限的、封闭环境中的问题,是否应该继续发展自动驾驶值得讨论。如果认为自动驾驶是封闭的,那么它可能因为处理不了未知情况而导致事故发生,则应该对自动驾驶进行限制;如果接受这种封闭,就应该接受一定的不可控性与事故率,然后在此基础上不断推动智能的边界以降低事故率。自我肯定需求让人一定会去拓展边界,机器也是由人设计的,人一定会去挡住机器的边界,只有在接受这个的前提下,才能继续讨论我们能做什么。

现在的机器也好、深度学习也罢,我们自己训练出来的模型,在什么时候会做出什么事情依然是不可控的。即便我们自己认为已经训练好了自动驾驶模型,它现在能识别车和马路,但遇到其他没见过的情况(比如一张外星人的广告图片),可能就会产生意想不到的错误。因为新的数据从未见过,它还是做出了判断,还是要发表意见,这种意想不到的错误就可能会影响整个世界的运行。

有的研究者希望找到一套规则来统一目前的深度学习,但我们认为这个方法不可取。我们认为学习的本质是抽象后的不断“折腾”,人思考学习的过程也类似。强化学习的局限性就在于目前是全局的强化——有的人想说能不能做局部的强化,但这也很难,现在的强化学习就是一把抓。如果不能让机器产生较强的自我意识、开显出认知坎陷,那么传统的框架就难以赋予机器真正的超越性。

不论是否相信人工智能哲学的存在及其必要性,我们对人工智能的讨论都一定会涉及哲学。哲学就是要统摄所有的东西,就是要思考很抽象的事情,其中最重要的就是意识的问题,或是意识跟物质之间关系的问题。当然很多流派是把意识的问题搁置起来,我们则是研究智能与意识之间的关系,把能解释清楚的先厘清,所以我们的创新看起来更偏向哲学,这很大程度是因为最终所有人工智能的问题,包括机器能不能有哲学、情感、伦理,它懂不懂得善与爱,确实都是哲学问题。而在认知坎陷理论里,爱、伦理、宗教这些可以被简化为认知坎陷,而所有的认知坎陷都来自最早的那么一点微弱的、能分出内外的一点意识,在那个时刻物理边界就很重要。初始的物理边界对人而言就是皮肤,因此触觉非常重要。到机器的层面,可能需要从视觉切入,引导机器形成比较强烈的“自我”意识。

未来人类训练机器,会和养育小孩的过程类似,都需要在主体的引导下与外界交互。即便如此也还是有风险。就像我们养育小孩,他可能朝不好的方向发展,但是我们当前还是选择养育他,这就是人性。而不是像《三体》里的“黑暗森林法则”,认为只要他有可能变坏就先把他干掉,按照“黑暗森林法则”的逻辑,那就把后代全部消灭以防止后患,但这是不合理的。我们都知道AI会有风险,且不知道未来的路径和终局,但是我们还是会在终极意义上选择相信善、相信未来。

注释:

①蔡恒进:《认知坎陷作为无执的存有》,《求索》2017年第2期。

②蔡恒进、蔡天琪、张文蔚、汪恺:《机器崛起前传——自我意识与人类智慧的开端》,清华大学出版社2017年版,第174-181页。

③蔡恒进:《触觉大脑假说、原意识和认知膜》,《科学技术哲学研究》2017年第6期。

④蔡恒进:《论智能的起源、进化与未来》,《人民论坛·学术前沿》2017年10月下刊。

⑤P.Kay,K.Mcdaniel,The linguistic significance of the meaning of basic color term,Language,1978,54(5).

⑥H.A.Simon,The Sciences of the Artificial,the MIT Press,1996,pp.37-40.

⑦胡久稔:《希尔伯特第十问题》,哈尔滨工业大学出版社2016年版,第1-9页。

⑧T.Ord,The diagonal method and hypercomputation,The British Journal for the Philosophy of Science,2005,Vol.56,No.1.

⑨徐英瑾:《心智、语言和机器——维特根斯坦哲学和人工智能科学的对话》,人民出版社2013年版,第97-107页。

⑩Scott Aaronson,Why I am not an integrated information theorist,2014.http://www.scottaaronson.com/blog/?p=1799.

(11)迈克斯·泰格马克:《生命3.0:人工智能时代生而为人的意义》,浙江教育出版社2018年版,第373-418页。

(12)蔡恒进:《触觉大脑假说、原意识和认知膜》;蔡恒进、张璟昀:《原意识:自由意志的始作者》,《鹅湖月刊》2018年第11期。

(13)蔡恒进:《认知坎陷作为无执的存有》,《求索》2017年第2期;蔡恒进:《意识的凝聚与扩散——关于机器理解的中文屋论题的解答》,《上海师范大学学报(哲学社会科学版)》2018年第2期。

(14)蔡恒进:《中国崛起的历史定位与发展方式转变的切入点》,《财富涌现与流转》2012年第1期;蔡恒进、蔡天琪、张文蔚、汪恺:《机器崛起前传——自我意识与人类智慧的开端》。

(15)蔡恒进:《论智能的起源、进化与未来》。

(16)蔡恒进、蔡天琪、耿嘉伟:《人机智能融合的区块链系统》,华中科技大学出版社,2019年版。

(17)S.Pinker,Learnability and Cognition:The Acquisition of Argument Structure,The MIT Press,2013,pp.5,415-440,First edition published in 1989.

版权声明:该问答观点仅代表作者本人。如有侵犯您版权权利请告知 cpumjj@hotmail.com,我们将尽快删除相关内容。