首页 > 编程知识 正文

外星人(机器人代替人类什么工作)

时间:2023-05-03 16:18:47 阅读:86060 作者:4651

“蜜蜂”杀人机器人包含的黑科技

想象一下在安静的大学教室里,学生们在各自的座位上舒适地自习。

突然,像蜜蜂一样的小不明飞行物从窗户和门缝涌来,他们在教室上空盘旋,似乎在扫描和确认。 终于,在沉闷的声音之后,听到尖叫声的——个男孩浑身是血。

在短短的0.5秒钟内,将“蜜蜂”携带的3克炸药倒入男孩的头上,男子当场死亡。 突然,教室变成了屠宰场,充满了悲鸣和恐惧。

这样血腥的场景来自加州大学hpdppx教授发布的视频。 虽然视频中的“杀人蜂”杀戮并不存在,但我们必须明确视频中的技术目前是存在的。

联合国特定武器公约会议的“禁止杀手机器人运动”

日前,韩国科学技术院最近开设了人工智能研究开发中心,目的是研究开发适用于作战指挥、目标跟踪、无人水下交通等领域的人工智能技术。

这引起了业内专家的广泛担忧,30多个国家和地区的人工智能和机器人专家表示将抵制研究人工智能武器的韩国科学技术院(KAIST ),但该大学并未承诺停止研发。

2017年剑桥大学生存威胁研究机构相关人士列举了世界末日、可能导致人类灭绝的10大威胁。 排在首位的是人工智能和杀手机器人。

军用杀人机器人“由来已久”

2012年,联合国人权理事会爱心裙发表报告,呼吁各国冻结“杀人机器人”的试验、生产和使用。

他说:“机器人没有人类的感情,无法理解和辨别人类的感情。 由于没有充分的法律解释责任制度,以及机器人不应该拥有决定人类生死的权限,引进这样的武器系统可能是不能接受的。”

如果将军用杀人机器人定义为“不需要人类介入,或者只需要远程请求就可以在战场上进行军事行动的机器人”,那么包括自动炮台、扫雷机器人、军用无人机。 而且,这种东西在战场上活跃的时间比想象中要长,机器人“杀人”从很久以前就开始了。

二战中,德军曾研制出一种反坦克武器——“歌利亚遥控炸弹”。 这是一种由有线遥控(必要时也可以无线遥控)控制的无人驾驶的“袖珍坦克”,搭载着烈性炸药,可以直接经由坦克的底部装甲炸毁重型坦克。

“歌利亚遥控炸弹”

随着集成电路技术的出现和完善,计算机的体积正在缩小,到了20世纪80年代,计算机可以安装在军用无人运载工具上。

同时,计算机的功能也在不断完善,可以完成控制运载工具行驶、寻找目标、识别敌我、发射武器等一系列任务,而且相对稳定可靠,能够适应复杂多变的战场环境。

目前众所周知的“捕食者”无人机,本质上是军用杀人机器人。 另外,一些国家正在开发更加自动化的战斗机器人,可以在战场上自主寻找、选择目标,并自己决定是否开火。

MQ-9割灌机

是人性还是伦理?这是一个问题

电影《终结者》描绘了机器人杀死、奴役人类的黑暗未来。 虽然电影中的场景很难在短时间内在现实生活中再现,但智能相对论分析师hxdwx认为,军用杀人机器人的研究和使用,不仅是人性的问题,也是伦理的问题。

1 .战斗人员还是武器?

传统战争主要发生在国家和政治集团之间,战争的主体是军队和军人。 杀人机器人的开发和应用,使得军人不再是战争的唯一士兵,战争主体的地位更加复杂。

火炮、坦克和战舰不能用人手操作,军人是战争的主体。 杀人机器人具有人工智能,能够思考、判断,能够自动发现、识别、打击目标,自主执行人赋予的任务,能够代替军人冲锋陷阵。

如果杀人机器人上了战场,他们就是真正的战斗人员。 但是,杀人机器人是有行为能力但没有责任能力的战斗人员,与传统意义上的军人战斗人员不同,也与武器不同。 杀人机器人是战斗人员还是武器,变得难以定义,伦理地位也相应地难以确定。

2 .如何保证安全问题?

杀人机器人也没有感情,无法理解和分辨人类的感情,无法分辨眼前的被杀戮者是敌人还是伙伴。 如果自主杀人机器人成为战争的工具,很难保证不杀害无辜的人。 特别是在由于某种原因导致失控故障,没有人保证它不会袭击人类战友的情况下,创造它们,身体会伤害比它们弱的智慧人种。

事实上,目前还没有控制自动系统错误的有效措施。 如果弄错程序或被恶意篡改,就有可能造成血淋淋的惨剧,人类的安全将受到巨大的威胁。 如果不限制开发有杀人能力的智能机器人,总有一天,“全自动”的“杀人机器人”会上战场,出现自主决定人类生死的局面。

3 .如何正确识别敌我?

从冷兵器时代到现在,敌我识别不良引起的误伤,是战场上难以避免的问题。 现代

战争中往往会使用技术手段来避免误伤,但如果想要让军用机器人完全自主行动,需要解决的问题还要更多。

人类士兵不仅可以判断某个移动的人是敌人、友军还是平民百姓,而且能够相对准确地了解对方的来意。但对于军用机器人来说,它们最多只能分清敌我,却通常难以判断对方的“心思”,所以很可能出现枪杀投降士兵和战俘的情况,而这一举动是被国际公约所禁止的。

4.是否赋予自主“杀人能力”?

是否赋予自主行动的机器人“杀人的能力”,一直是包括人工智能、军事在内的各方专家学者讨论的焦点。1940年,著名科幻作家yedyd提出了“机器人三原则”。他指出:“机器人不得伤害人类;必须服从人类指令,但不得与第一原则抵触;必须保存自身,但不得与前两条原则抵触。”

机器人发展与道义的关系

害怕的便当在《第二变种》中描述了军用机器人对人类社会的渗透:在美苏核战之后,美国为避免亡国,制造了可以自行组装、学习并且割人咽喉的军用机器人,用以袭击苏联占领军;但这些机器人不断进化,自行组装了具有苏军男女士兵和营养不良儿童等外观的新型机器人,不仅攻击人类,也自相残杀,甚至潜入美国在月球的秘密基地,埋下了人类灭亡的伏笔。

当然,单个军用机器人如果出现程序错误,乃至受到来自敌方的干扰或者计算机病毒破坏,确实有可能出现袭击人类战友的情况。

但如果据此担心机器人获得自我意识之后,会全体背叛人类并自行制造同伴, 仍然为时尚早。

究竟是阿里巴巴山洞还是潘多拉魔盒?

耶鲁大学的研究人员把军用机器人列为人工智能技术最有前途的应用领域之一。军用机器人的用途太诱人:既可降低己方士兵的风险,又能降低战争的代价。它省去了军人的薪水、住房、养老、医疗等开销,又在速度、准确性上高于人类,且无需休息。它不会出现只有人类战斗员才会有的战场应激障碍,情绪稳定,无需临战动员,一个指令,就能抵达人类不可及之处,完成各种任务。

但是,如果杀人机器人滥杀无辜,责任又该归咎于谁呢?英国机器人技术教授pcdzxc认为,“显然这不是机器人的错。机器人可能会向它的电脑开火,开始发狂。我们无法决定谁应该对此负责,对战争法而言,确定责任人非常重要。”

从人道主义的角度来看,不论研制杀人机器人的初衷是怎样,机器人战争当杀人机器人被有效利用时,它应遵循期望效果最大化、附带伤害最小化的功利主义原则。

从功利主义的角度看,杀人机器人不具备人类恐惧的本能,不论智能高低都会意志坚毅,不畏危险,终会一往无前。杀人机器人也不需要人员及与之相应的生命保障设备,即使被击毁,也不存在阵亡问题,只需换一台新的重新上阵,成本可以大大降低。

使用杀人机器人代替士兵岗位用于战场中侦察和扫雷和作战任务,还有助于把士兵从一些极为危险的领域中解放出来,减小战场伤亡,降低军事活动的成本和负担。但是,杀人机器人能像人类士兵一样在战场上自动寻找并攻击目标,那么失控的机器人就可能给人类带来巨大的灾难。

此外,如果世界各国在杀人机器人方面展开军备竞赛,那将会大大增加军费的支出。因此,整体上看使用杀人机器人带来的功利极其有限,反而会给人类带来极大的威胁,弊远大于利。无论如何,我们都将难以理解杀人机器人的研制和使用会有助于增加人类的利益。

诚然,军事杀人机器人的发展会引发军事领域的巨大变革,智能相对论分析师hxdwx认为,军用机器人的发展是人工智能应用于军事领域的体现,其究竟是阿里巴巴山洞还是潘多拉魔盒,需要人类自身予以甄别,只有将技术真正应用并服务于人类发展,才能真正构建世界的“阿里巴巴山洞”。

【钛媒体作者:智能相对论(微信id:aixdlun), 文/ hxdwx】

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。