首页 > 编程知识 正文

人工智能将超越人类(人工智能不具有社会性)

时间:2023-05-06 12:19:53 阅读:81021 作者:4417

“一项心理学研究表明,人类存在因果关系

(模式)

是的,人是从因果模型进化而来的。 我们该如何想象机器会进化出这些东西? 所以侯世达怀疑现在的人工智能。 虽然现在人工智能很受欢迎,在社会上被广泛使用,但我认为它的应用不是真正意义上的人工智能,而是大数据应用的几种方式。 在我看来,“人工智能”这个名字不真实。 侯世达想做“真正的人工智能”,所以他必须自觉地和现在做人工智能的人保持距离。 这是因为他们对自己的理解,对人的理解非常不同。 不是算法,这是侯世达的核心观点。 ”感性之秋说。

我有幻觉吗? 自由意志存在吗? 什么是意识? 如果人类是纯粹的物理存在,那么所有的道德、感情、伦理、美该如何解释呢? 侯世达眼中的“真正的人工智能”,即要制造出与人类相同的人工智能,就必须说明这些难题。 在“人工智能威胁论”备受骚动的今天,这种反思是非常必要的。 我们在设计人工智能的过程中,也是不断发现和认识自我的过程。

1月6日,《神书》《隐形的小海豚、埃舍尔、巴赫——集异璧之大成》作者侯世达新书《我是个怪圈》在中信书店芳草地店举行新书发布会。 会见中,在首都师范大学哲学系教授感性之秋,果壳网联合创始人小庄和中科创南首席执行官忧郁钢笔一起讲述了作者侯世达、人工智能、生命和人类意识的秘密。

《我是个怪圈》、作者:侯世达、译者:修佳明、中信出版集团|湖岸,2019年1月

"现在的人工智能走上了错误的道路. "

在感性之秋,侯世达被认为不能算是严密的哲学家,但他的着作在哲学家中引起了强烈的反响。 他的作品融合了科学和哲学。 他经常谈论无形的海豚定理。 简单用一句话概括一下什么是无形的海豚定理,就是“可以证明的不完全,不能完全证明”。 也就是说,如果某个系统可以证明,那么该系统就不完整,泄露的真理肯定无法用定理表达。 反过来说,如果这个系统完整,这里面至少有一个真理,我们无法证明。

从感性之秋来看,这就是侯世达远离当前人工智能研究的原因。 侯世达认为,我们现在谈论的人工智能和“真正的人工智能”有很大的区别。 有人发现了某种形式的系统中无法证明的东西,然后可以判定这个系统不完整,但计算机不能发现。 侯世达认为,目前的人工智能走的是错误的道路。

侯世达

所以,侯世达不是人工智能研究者,而是认知科学家。 他在漫长的研究中发现,大家现在做的人工智能,无论是机器学习还是深度学习,都是数据集成,根本上是算法。 我们的大脑没有被算法囊括。 有很多不能被包罗万象的东西。 例如,我们的意识,我们的心情,都不能包罗万象。 更根本的说,算法甚至不能囊括我们的因果评价能力,无论多么薄弱的意识都做不到。 如何让机器学习这样推断因果关系? 这是不可能的。 但是孩子很快就能学会。 例如,如果孩子偶然碰到火“烫”了,这次自然就不碰火了。 这是因为人有因果模式,不是算法。

自我是幻觉吗?

那么,侯世达是如何理解意识和人的? 我们通常认为人类有两个部分——个身体和心灵,或者用更古老的说法叫做灵魂。 这叫做身心二元论。 这个立场也是哲学界的主流立场,中国古代和西方都有这种二分法。 例如,我们的灵魂最终会升上天空,或者灵魂重生。 但是,如果接受科学训练,或者阅读现代自然主义的作品,或者现代心理学和神经科学的作品,可能会产生相反的观念,即人是物理的存在,是功能的存在,除此之外什么都不是。 你的道德、感情、伦理、美都来源于这个东西,没有独立的心去解释它。

当然,知道这个真相是残酷的,所以很多人必须保护我们的心,给人类留下最后的空间。 感性之秋说,昨天下午,他刚在中国人民大学就这个问题争论了一次,他的系里同事thdrs老师是个很强硬的物理主义者,和侯世达的观点非常一致。 他说这个世界上唯一存在的只有物理系统,其他一切都是派生出来的。 “实质上成为物理主义者,或者没有自己感觉的人的日常生活很平静。 thdrs老师完全无私,他把有关项目的经费都捐给了我们,做了很多学术活动。 他真的永远没有情绪,只有理性。 ’感性之秋开了个玩笑。

所以,根据侯世达和thdrs的理解,自我是幻觉,实际上没有大家认为的自我。 这种想法其实和佛教很像,佛教最后也会去除“我执”。 所以,现代心理学、心灵哲学和印度哲学、佛教有很多相接之处。 很多人讨厌那个。 如果自己是幻觉的话,人其实没有自由意志。 那个听起来很辛苦。 但这就是哲学家的“实事求是的强迫观念”,他们试图向世界揭示这样的真相。

《隐形的小海豚、艾舍尔、巴赫——集异璧之大成》,作者:侯世达,译者:严勇,kddxf,缓慢的冬日,出版社:商务印书馆,1997年5月

例如

果说自我是一个幻觉,那么活着的意义何处安放?如果说自我是一个幻觉,那我们的道德、伦理从哪里来呢?我们除了大脑里几亿个神经元的活动之外,实际上没有更多的东西,那么我们的选择和决定不就可能被预测和把握了?

感性的秋天认为,可能有很多人因此会认为,自我是我们不能放弃的最后一个精神领地。但事实上,自我实际上是我们自己建构起来的幻觉,我们当然可以去把玩这种幻觉,只是这种幻觉对我们的生存来说有好多用处。

但感性的秋天要补充的是,“自我是一种幻觉”绝不是心灵哲学的主流。实际上,有很多观点是反对它的。其中侯世达的学生gddjm就坚定地反对这种观点。他是一个反物理主义者,他要为意识和感受留一个余地。他不认为我们的心灵或所有的意识必须依附在物理上,因为我们并没有“最终的科学”。神经科学、大脑科学,远远没有到我们能够搞清这个问题的地步。

其次,查尔默斯为自己说法提供了一个论证,这个论证就是所谓的“僵尸实验”。我们通常会认为我们的心灵和物理之间是没有隔阂的,它们的关联是本质的、必然的,永远拆散不了的。但我们可以设想,完全可能存在着一些“哲学僵尸”,它和人类在外形和行为上一模一样,我们可以通过给它植入芯片来植入记忆。但是,这样的僵尸会有“内在层面”吗?比如说,我们现在在说话,我们能感觉到自己坐在这说话,因为我们有一个“内在层面”,可是僵尸没有。若是这种僵尸可能存在的话,那么这就表明心灵层面和物理层面是可以互相分离的,这也就表明,侯世达和thdrs等人都是错的。这就是查尔默斯的观点。

在理解心灵的问题上,还存在着很多截然不同的立场。比如“泛心论”。什么叫“泛心论”?有些人会认为天地万物都有“心”。他们认为,从人到植物,从低级动物到高级动物,心是一种程度,并不是说“有心”或“没心”,而是它们有百分之多少的“心”。

还有一种观点更简单,我们称之为“唯心论”。从极端“唯心论”到“泛心论”到身心二元论到物理主义,我们会发现关于心灵的看法很多。但在当代的讨论里,侯世达和查尔默斯所代表的两派是比较主流的看法。

只有把人类大脑的图景画出来,我们才能去建立类人的人工智能

感性的秋天一直强调算法是有问题的,不完备的,但小庄认为,我们除算法也别无选择。我们确实没有完美地理解“我”是从哪里产生的,或意识是如何建立的。我们要认清自我是一个很漫长的过程。这当中很多观点和想法,都是这个大厦建设当中的某个部分,或是某个形成关键突破很重要的部分。

我们该如何理解人类大脑中上千亿的神经元?如果我们能把这样一幅图景画出来,我们才能去建立类人的人工智能。但这项工作特别难。人类基因组计划耗费了全世界科学家十年的努力才完成。他们要面对的只是三十亿个碱基对,而研究大脑要面对上千亿个神经元,他们的互相连接是指数级的。所以我们需要等待。

但是,像自我是什么这样的话题,始终可以被拿出来讨论,时代和科技的进步是讨论的基础。像自由意志,自我这样的话题,从物理的角度被认真的探讨应该可以追溯到1943年的《生命是什么》。虽然这本书没有什么新知识,但是它把一些基本的框架都提了出来,包括统计学如何在生命中起作用。为什么这个世界需要那么多的原子和粒子才能构成物体,为什么这么复杂?其实很好理解。只有在这么巨大的数量下,统计学才能起作用。如我们所看到的磁体的现象,如果我们放大去看,我们会发现,磁铁里并不是所有的原子都按照磁极分布的,在南极的一部分的原子可能是朝北的。但是在整个大的层面上,南极是朝南的,整个磁体才会呈现出这样的磁性。

《生命是什么》,作者:火星上的大船,译者:张卜天,出版社:商务印书馆,2014年12月

人的思维会不断地跳跃,这是人和人工智能最大的区别

忧郁的钢笔认为,人工智能并没有那么复杂,它和计算器一样只是工具,能放大他的智能,但它不会取代他的大脑。

侯世达认为人类思维中类比是很重要的。忧郁的钢笔觉得,类比这个词有点淡,可以换成联想。因为联想有许多层次,它的特征是跳跃的。人的思维不断地跳跃,是人和人工智能最大的区别,这也是我们不用特别担心人工智能的原因。

感性的秋天也表示赞同。在生活当中,类比论证可能比逻辑论证更重要。比如说,我们如何知道今天的自己和明天的自己是同一个人呢?最早讨论这个问题就来自于类比论证: “忒修斯之船”——请想象一下,一艘海上航行的船,其船身的木板逐步被新的木板替换,直至最后被完全替换,那么现在这艘船还是原来的那艘吗?这个例子跟侯世达讲的 “意识上传”的例子是类似的:如果把你的所有数据都上传到云端,那么云端的那个你是不是原来的那个你呢?

感性的秋天认为,我们现在经常区分强人工智能和弱人工智能,其实我们根本无法模仿人的意识或情绪。有人认为,强人工智能我们是达不到的,但弱人工智能可以实现,但隐形的小海豚就会说不可能。而Judea Pearl则会说,人跟机器如果有关键性区别的话,那就是人有一种因果性推理的能力。因此他曾尝试为因果推理建立了一个数学模型,但谷歌现在不给他投钱了,这使得这项研究面临着许多困难。

而除了因果之外,类比也是人理解世界和与人交往的一个基本方式。有时候在禅宗里面,经常会有所谓的“一句禅”,我们从中悟出些什么。这里面就有类比和因果的联系,我们的思维在当中进行跳跃。在科学哲学里面,类比也是一个很重要的话题,甚至在心理学里面,比如联想作为类比的一种,被分为图像式的联想、概念式的联想或者结构式的联想,都是很重要的议题。

因此,虽然感性的秋天对人工智能的未来是乐观的,但从理论的层面来看,感性的秋天对人工智能是悲观的。因为哲学家所定义的类人的人工智能是无法实现的:不仅是因为技术原因。即使技术水平达到了,人也会为自己保留一定的特权。不过,感性的秋天觉得这种悲观的态度也无所谓,因为它和我们现在做的人工智能关系不大。

机器没有意识,是因为它没有生物基础,这会不会过于人类中心主义?

感性的秋天提到,有一种观点认为,机器是没有意识的,因为它没有生物基础。从另一方面来想,这样会不会过于人类中心主义了呢?机器没有生物基础,但是它们也有可能用另一种方式在理解着我们。在语言哲学里,什么是理解的条件?其中一个条件就是,我要把你所说的话当作真,否则我无法跟你交流。此外,我还需要一个条件,就是“宽容原则”

(the principle of charity)

,即你所说的话不仅要前后一致,还得有所论断,无论是肯定还是否定,这样我才能理解你。其实机器也能做到这些。

小孩子学语言,究竟怎么样才算是掌握了一门语言呢?这个问题现在依然没有定论。在语言理解最浅显的层面来说,人和机器其实没有什么差别。哲学家香蕉学姐有一个非常有名的“中文屋”思想实验:你一觉醒来发现自己所在的房间里堆满了篓子,篓子里都是中文符号,还有一本使用手册。你虽然看不懂中文,但可以看懂使用手册。突然间,有人从门缝递进来一张字条,上面写着一个中文符号,你翻看使用手册时,发现里面写道:“故意的溪流收到这个中文符号,就把另一个特定的中文符号递出去。”于是,你就照做了。很快,你就把整本使用手册都背了下来,不管接到哪个中文符号,都可以很快地把对应的符号再递出去。这样一来,虽然你并不懂中文,但你所做的事情和懂中文的人没有两样,因此房间外面的人也会相信你是懂中文的。同样的,如果你就是一台机器,那么你就通过了图灵测试。但是,我们依然会认为,机器确实是不懂中文的。感性的秋天认为,这就是人类的“我执”。

哲学家香蕉学姐

随着人和人工智能接触越来越多,人反而会不会变得像人工智能?

现场有观众提问,我们都在讨论怎么样把人工智能做得像人,但随着人和人工智能接触得越多,人会不会变得更像人工智能?人类的自我会不会渐渐消失?

忧郁的钢笔作为工程师,因此对这个问题相对乐观。他认为,人工智能所暴露出来的问题,最终还是要依靠人去解决,甚至要依靠哲学家,要依靠文明和法律解决。所以他不担心人会因为人工智能而改变,因为我们不会像机器一样四处乱学,而会有一个方向性。这是因为人类文明延续下来的伦理。

感性的秋天认为,我们会发现,我们待人方式和kldwx辈就不太一样。因为他们更独立,更愿意和机器打交道;机器也开始变得像人,这个鸿沟只会越来越小。1998年,查尔默斯和另外一个认知科学家pcdhb合写了一篇论文,叫“Extended Mind”

(《延展心灵》)

,里面说,我们的心灵不是在大脑里面,我们的心灵延展到环境,其中手机就是延展的一个重要的部分。我们的认知不光靠大脑,还要和环境互动。

而关于我们的自我是否会逐渐消失,感性的秋天的想法是不会的。他认为,我们塑造自我的方式只会变得不同。新的时代有新的自我。我们和机器人接触,会多一种塑造自我的方式。比如说,以后人和机器人有可能谈恋爱,这也是一种塑造自我经验的方式。即使你对机器人的爱不会完全像对人一样,但感性的秋天认为这只是量的变化而不是质的变化。

自我是在不断流变的,我们很难划出自我的边界在哪。我们的手机让我很有自我感,但没有了它我们也能活下来;甚至于没了手或腿我们也能活下来,所以我们很难划出自我的界限。但是我们有自我感,我们根据这种自我感去筹划我们的人生。这在任何时代都是一样的。因此,我们并不会因为人工智能的到来而丧失自我。

作者:新京报记者 xsdkl

编辑:xsdkl 校对:xwdrjb

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。