首页 > 编程知识 正文

ai是什么(贾维斯人工智能现在可以达到吗)

时间:2023-05-06 11:08:33 阅读:80820 作者:4287

牛津大学计算机科学系主任kkdbz Wooldridgecxdqyg

“人工智能未来的趋势将是多代理,AI之间可以实现智能互联。 就像人生活在富裕的社会一样,AI也可以学习人类的社会存在方式,并与其他主体合作。 ”

在2019T-EDGE全球创新大会上,牛津大学计算机科学系主任cxdqyg(kkdbzWooldridge )解释了他对未来AI趋势的洞察。 这个多代理是指多个AI系统相互连接而形成的整体。

cxdqyg是人工智能界的学术先驱,在多元智能系统方面非常出色。 其著述《多Agent系统引论》已被国内外计算机科学专业教科书引用。

他兼任国际计算机学会、美国人工智能学会及欧洲人工智能学会会员,国际人工智能联合会主席承担了人工智能领域几乎所有的荣誉。

他在经典《多Agent系统引论》中写道,之所以区别于地球上的其他生物,不仅因为人类具有毋庸置疑的学习和解决问题的能力,而且因为人类具有与同伴通信、合作、一致的能力。 这些我们每天使用的社会能力是与计划和学习等智能同等重要的智能行为。

因此,cxdqyg正在与团队研究如何让AI系统学习人类的社交行为,并通过人类的社交方式进行智能互联。

AI技术中已经有很多主要的落地APP应用,如Siri、Alexa、Cortana等AI助手。 既可以作为软件存在,也可以作为机器人和汽车那样的硬件存在。

从学习人类社交模型的进展来看,目前AI还停留在学习人类行为和喜好的阶段,但下一步是希望AI系统之间能够智能互联,以便Siri能够与另一个Siri对话。 这需要AI赋予人类社会主要的社会技能,主要表现为合作、协调、谈判三种能力。

那么,AI学习人的社会能力会带来什么好处呢? 对此,cxdqyg用3个例子进行说明。

首先是合作能力。 例如,如果福岛第一核电站泄漏到这样的灾害现场,人类救援队不适合开展救援,灾害型机器人就需要承担人类救援队的任务。 他们需要团队合作共享救援信息,发现幸存者后向其他机器人传达信息。 他们为了完成任务,需要共同承担风险。

其次是协调力。 在大型摄影棚发生火灾的情况下,如果观众慌张逃跑,会发生踩踏事故。 机器人也是如此,但机器人需要能够理解其他机器人的行为的能力。 具体来说,机器人需要了解其他机器人的行为会对自己产生什么样的影响,然后调整自己的行为。

例如,一个共享仓库中有两家公司分别用机器人配送。 机器人之间必须预测对方的行动,根据对方的行动调整自己,双方才能顺利发出送货的指令。

最后是谈判能力。 如果两家公司都想去任何一个目的地,但双方的目标中地点重合,双方需要通过游戏和协商为对方“让路”,从而获得双赢的结果。

据cxdqyg预测,不到20年灾害机器人就可以代替人类救援队展开救援。 更多的情况下,机器人之间不仅可以交换信息,还可以相互咨询完成任务。

但是,赋予AI以人类社会能力的最大难点是人类还不了解自己社会技能的形成过程,让AI学习人类的社会模式是更大的挑战。 所以这件事至今还在起跑线上。

为了进一步说明AI对未来趋势的判断,cxdqyg接受钛媒体采访,就“多主体”的未来、未来AI世界的构想、AI伦理等问题展开讨论。

谈“多智能体”的未来

钛媒体:在演讲中提到机器人需要团队合作和谈判等社交能力。 有必要像灾害机器人一样共享信息,合作实现救援。 但是,赋予机器人社会能力的难点在哪里?

cxdqyg :赋予机器人人类的社会经验和社会技能是非常大的挑战。

首先,我们不太清楚自己社会技能的形成过程。 在孩子成长至今的漫长过程中,经历了家庭、学校、职场等环境中的各种社会角色,通过不断的与他人的交流和反馈获得了这一社会技能。 但是机器人和电脑不能像人类一样学习社会技能。

所以我们现在应该研究如何从零开始,让AI也拥有社会技能。 我们还在起跑线上。 但是,我确信,如果将来成功的话,具有我称为“多代理”这样社会技能的AI和机器人一定会被广泛使用。

钛媒体:关于具有这种社交技能的机器人,你和团队现在取得了什么进展? 有让机器人做团队型工作的例子吗?

cxdqyg :例如,我们在以色列的公司研究赋予AI谈判功能。 既可以与人谈判,也可以利用其谈判技能训练用户。 我们的团队都是AI专家,世界上有很多研究AI救援机器人的团队。 我相信20年后,这项技术将会非常成熟。 那时,有可以用于自然灾害的救助机器人。

谈未来的AI世界

钛媒体:这个世界的信息非常多,通晓所有知识,无法掌握所有信息,但人工智能是可能的。 这样越来越大的信息不对称,将来真的会有控制所有矩阵的出现吗?

cxdqyg :我认为这种情况不可能发生。 我是杞人忧天的想法。 可以看到小型的AI

系统是无所不在的,但是未来AI绝非是像大家想象的那种超大型的系统。事实上,AI的确会介入到生活的方方面面,但我不认为会有AI控制人类世界的那一天。

钛媒体:你在《多Agent系统引论》中写道:区别于地球上的其他生物,不只是因为人类有毋庸置疑的学习和解决问题的能力,更是因为人类具有与伙伴通信、合作、达成一致的能力。这些我们每天都使用的社会能力,是与规划和学习等智能同等重要的智能行为。这是不是一个人工智能的新思路?因为现在的深度学习还是在制造一个类似于人类的超级大脑,而按照你的思路,似乎是在学习蚂蚁和蜜蜂的群体智慧?

cxdqyg:目前只有小部分研究者热衷于研究这种类脑的AI。大部分的研究人员并不热衷于开发类脑AI,并且对此持怀疑态度。

首先,人脑是非常复杂的结构,有很多的神经元,因此人脑结构是很难去进行模仿、复制和重建的。更大的误解在于,大脑之于人体并不像是CPU之于电脑,能够承担中央处理器的功能。人脑是身体的一部分,需要和身体的其他器官联系与互动。这就会导致做类脑AI更加难以实现。

谈AI情感与虚拟分身

钛媒体:一些公司如微软通过打造微软axdxwz为AI赋予情感,让人工智能助手可以被设定成活泼、冷静等各种性格。像电影《她》中呈现的,未来AI可以拥有像人一样的思考方式和情感吗?

cxdqyg:这个话题在整个AI产业中是非常具有争议的。我的同事都不理解为什么非要给AI赋予感情。更重要的是,如果真的要为AI赋予感情,让其与人类产生互动,首先应该让让AI理解人类的行为和世界。比如,AI做的哪些事对人类产生怎样的影响、哪些事会令人们开心或者伤心等等。这会是赋予AI情感的关键所在。

钛媒体:当前有很多公司正在研究虚拟人像,为人类创造一个“虚拟的分身”,比如虚拟主持人就是一个例子。你怎么看待这项技术的应用情况?

cxdqyg:就像《头号玩家》电影的情节,在游戏世界中拥有虚拟形象能够让人身临其境,未来会有广泛的应用。但我的担忧在于,如果每个人都沉浸在自己的虚拟世界中,他的世界就会相对的隔离和孤立。

比如你的虚拟世界可能是星球大战,而我的虚拟世界却可能是黑客帝国。这种虚拟世界是否可以互动和互联在一起,还是人们会各自在不同的虚拟世界里生活,这是我比较担心的。

钛媒体:现在国内已经有公司在真人的“虚拟分身”,希望分身能“继承真人的性格特征,并在真人去世后代替他生存下去“,你怎么看待这件事?

cxdqyg:让AI虚拟形象去”延续“人类寿命这件事看起来很有吸引力,但本质上还是看个人需求。我尊重死亡的自然规律,但对一些人来说用这种方法让自己重焕青春或许可行。总而言之,我认为这个技术在未来的应用不会太广。

谈AI伦理:谁具有决定权?

钛媒体:您在演讲中提及我们在将更多的选择权交给电脑。你认为在做决定时,应该是人来做判断,还是人要让位于电脑程序,谁应该具有主导权?

cxdqyg:人和电脑谁具有决定权要分情况讨论。首先是必须划红线的区域,比如让机器来决定人的生死就是禁区。而一些常规性的决策可以让机器来进行。比如20年前没有GPS,人们出行要看地图费事费力。而GPS出现后,人可以给机器授权,让它来完成导航和目的地推荐。

一些国家开始在司法领域运用AI进行决策,比如用AI判断嫌疑人是否入狱,如何控制量刑等等。这引起了人权组织的极度不满,认为生杀大权不能交给电脑来掌控。所以AI应该在划定红线后去做常规性的决策。

钛媒体:算法的黑盒子,是不是真的很可怕?我们现在已经不知道人工智能是如何制定策略的。我们必须接受未知的不确定性吗?

cxdqyg:AI算法的黑盒子确实是个很大的问题。我们为什么会对AI产生信任?从实践经验而言,如果AI能够给予人很好的解释,比如为什么会做出这样的决策,这样才更容易被人所接受。

谈AI落地场景

钛媒体:在中国,AI领域出现了一些独角兽公司,他们致力于找到技术应用场景,但进入传统实体行业并不容易,例如交通,制造业等,这些行业数据采集困难、大多靠经验驱动,你怎么看?传统行业受惠于AI还要多长时间?

cxdqyg:在所有的产业中,AI关注的是通过改进技术,来提升效率和产品服务。在传统行业,AI应用范围很广。我对于AI是非常有耐心的,认为在不远的未来传统行业就能受惠于AI。

钛媒体:对于人工智能的发展速度,请你做一个评估,到底是快,还是慢呢?

cxdqyg:AI发展速度并不如我们想象的那么快。虽然已经有很多领域的应用,但总体而言应用范围依然狭窄。与好莱坞大片中呈现的AI应用比起来,我们还有很长的路要走。

(本文首发钛媒体,采访、作者芦依,编辑/xdddjz)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。