电子人士兵、人工智能和机器人大规模监视可能在这里比你想象的要快

2018年2月10日11:12:53电子人士兵、人工智能和机器人大规模监视可能在这里比你想象的要快已关闭评论 4932917字阅读9分43秒

电子人士兵、人工智能和机器人大规模监视可能在这里比你想象的要快

《终结者》这部72页的五角大楼文件直接源自科幻电影《终结者》,该电影展示了他们对未来战争和战斗的计划,该计划将利用人工智能(AI)、机器人技术、信息技术以及生物技术

机器人兵和人工智能等先进技术的拥护者认为,这两者在道德上都比人类优越,因为在人类中,强奸、掠夺或破坏城镇的问题如果不消除,就会大幅减少,甚至完全消除。然而,科学界的许多人都对这项技术投以厌倦的目光,警告说,这项技术很容易超越人类控制,导致不可预测的——甚至是灾难性的——后果。

美国国防部宣布,美国将在十年多一点的时间内进入一个自动化作战的勇敢新世界。在这个世界上,战争将完全使用先进的武器化机器人系统。我们已经看到了无人机的使用会带来什么。但是,根据国防部的说法,我们还没有看到任何东西。

在寻求建立"军事技术优势"的过程中,五角大楼最终的目标是垄断机器人、人工智能和信息技术领域的"变革性进步"——又称国防创新计划(Defense Innovation Initiative),这是一项旨在识别和开发用于军事领域的开创性技术突破的计划。

令人不安的是,由五角大楼资助的高等教育机构国防大学(National Defense University)的一项新研究敦促美国国防部采取严厉行动,以避免美国军队的倒台,尽管报告还警告称,加速的技术进步将"在经济、社会、政治和军事上打平世界,也可能加剧财富不平等和社会压力。"

NDU的报告探讨了科技进步可能有利于军方的几个领域——其中一个领域是从社交媒体平台收集大量数据,然后由人工智能而非人类对这些数据进行分析。另一个是"在汽车、工厂、基础设施、电器和家庭、宠物,以及潜在的人类内部,传统机器人和智能日常设备之间的界线将变得越来越模糊。这些系统将帮助政府监控个人和人口,并"提供检测和预测分析"。

"能够自主发动战争的杀戮机器人"的军队也是一种可能,因为无人驾驶机器人系统越来越智能,制造成本也越来越低。这些机器人也可以被安置在平民的生活中,来执行"监视、基础设施监控、警察远程监控和国土安全应用"。

为了抵消公众对自动机器人能够自行杀人的强烈抗议,作者建议五角大楼应该"高度主动"地建立"它不会被认为是在制造一个没有人在回路中的武器系统"。

模仿人类认知的强人工智能——包括自我意识、感知力和意识——刚刚起步,有人说早在2020年代。

但并不是所有人都对这些进展感到欣喜若狂,尤其是在人工智能方面。技术领域的领导者、记者和发明家们都在敲响警钟,提醒人们,人工智能技术的蓬勃发展会带来毁灭性的后果。

AI技术——可能出现什么问题?

 

随着国防部计划以不受控制的技术进步来控制军事和监视领域,许多人开始质疑这条道路的严重影响。

记者R·迈克尔·沃伦(R. Michael Warren)写道:

"我和比尔·盖茨,斯蒂芬·霍金和埃隆·马斯克在一起。人工智能(AI)有很大的好处。但它也有阴暗的一面。那些急于创造出比人类更聪明的机器人的人似乎对这些后果并不在意。谷歌工程部主任Ray Kurzweil预测,到2029年,计算机将能够比最聪明的人更聪明。他们将了解多种语言并从经验中学习。一旦他们能够做到这一点,我们就面临两个严重问题。首先,我们如何教会这些生物辨别是非——在我们自己的自卫中?其次,机器人的自我提升速度将比人类进化速度更快。这意味着要在智力上超越我们,带来不可预测的结果。"[资料来源]

电子人士兵、人工智能和机器人大规模监视可能在这里比你想象的要快

在1999年的一次人工智能专家会议上,调查了他们认为图灵测试(在图灵测试中,计算机在智力方面超过了人类)何时会发生的问题。总的思想大约有100年。许多人认为这永远不可能实现。今天,Kurzweil认为我们已经站在了智力超强的计算机的边缘。

英国理论物理学家、剑桥大学教授斯蒂芬·霍金(Stephen Hawking)直言不讳地谈到人工智能的危险:

霍金对BBC说:"我认为,全面人工智能的发展可能意味着人类的终结。"一旦人类发展了人工智能,它就会自动起飞,并以越来越快的速度重新设计自己。"他补充说,"人类,因为受到缓慢的生物进化的限制,不能竞争,将会被淘汰。"

2015年10月,在麻省理工学院航空与航天系的百年研讨会上,特斯拉创始人埃隆·马斯克(Elon Musk)对人工智能的发展发出了严峻的警告:

"我认为我们应该非常小心人工智能。如果我猜猜我们最大的生存威胁是什么,很可能就是这样。所以我们需要非常小心的使用人工智能。越来越多的科学家认为,应该在国家和国际层面上进行一些监管监管,以确保我们不会做一些非常愚蠢的事情。我们用人工智能召唤恶魔。在所有那些故事里,有一个拿着五角星和圣水的人,就像嗯他确信他能控制住这个恶魔。没成功。"

此外,在马斯克2014年发布的一条推文中,他认为"我们必须非常小心人工智能。可能比核弹更危险。"同年,他在CNBC上表示,他相信,"终结者"(Endinator–)的可能性实际上会成为现实。

同样,英国发明家克莱夫·辛克莱尔认为,人工智能将是人类的覆灭:

他在接受BBC采访时表示:"一旦你开始制造能与人类匹敌并超越人类的机器,我们将很难生存下去。""这是必然的。"

微软亿万富翁比尔·盖茨对此表示同意。

他说:"我所在的营地关注的是超级情报。"首先机器会为我们做大量的工作,而不是超级智能。如果我们处理得当,这应该是积极的。几十年后,尽管智力足够强大,足以成为一个问题。在这一点上,我同意埃隆·马斯克和其他一些人的意见。我不明白为什么有些人不关心。"

话虽如此,盖茨的微软研究公司已经将"超过四分之一的注意力和资源"指定为人工智能的发展,而马斯克则投资于人工智能公司,以便"密切关注技术的发展方向"。

 

文章来源:

https://www.defense.gov/News/Article/Article/603658/

https://motherboard.vice.com/en_us/article/8qxvvg/how-the-pentagons-skynet-would-automate-war

https://www.washingtonpost.com/…/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned

https://www.cnet.com/news/elon-musk-artificial-intelligence-could-be-more-dangerous-than-nukes

https://www.thestar.com/opinion/commentary/2017/07/14/beware-the-dark-side-of-artificial-intelligence.html

https://www.washingtonpost.com/…/stephen-hawking-just-got-an-artificial-intelligence-upgrade-but-still-thinks-it-could-bring-an-end-to-mankind

zhunbeizhuanbian
  • 本文由 发表于 2018年2月10日11:12:53
  • 除非特殊声明,本站文章均来自网络,转载请务必保留本文链接