459
机器人
人工智能是否会降低恐怖分子和极端势力的犯罪成本?
阿西莫夫三大定律:
第零定律:机器人不得伤害人类整体,也不能坐视人类整体受到伤害;
第一定律:机器人不得伤害人类,或因不作为使人类受到伤害;
第二定律:除非违背第一法则,机器人必须服从人类的命令;
第三定律:在不违背第一及第二法则下,机器人必须保护自己。
阿西莫夫定律的提出,是架构于作者文学作品之下的核心逻辑,《西部世界》因为三大定律的存在得以展开与运作,但返回到现实世界,人类还尚未找到能够转化成为实质限制的“三大定律”,而在此之前,人们已经迫不及待地开始制造“智能化杀器”。
钢铁侠的AI警示之路
三年前,特斯拉创始人埃隆·马斯克在看完《超级智能》,写下感想:我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。
8月20日,马斯克与来自26个国家的116名机器人和人工智能公司的创始人签署了一份公开信,在墨尔本召开的国际人工智能联合会议(IJCAI)开幕式上公布呼吁禁止使用机器人武器。马斯克等人希望呼呼联合国官员,考虑在联合国常规武器公约中加入机器人武器。
日前,马斯克提出了与三年前几乎一样的观点:人工智能对人类的威胁比朝鲜核武器还要大。
自马斯克第一次提出警惕人工智能的观点,其近年来不断向人们抛出类似观点。
2014年6月,马斯克接受美国财经电视频道CNBC采访时表示,他认为,有一天类似“终结者”这样的人工智能场景,可能会变成现实。
2014年8月,马斯克在Twitter发布一条微博。他写道:“我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。”
2015年1月,霍金与马斯克共同发表公开信,他们认为人工智能的发展应该受到控制。信中警告科学家们警惕人工智能将抹杀人类。
2017年7月,马斯克在美国州长协会上的一次会议上针对人工智能发表了自己的看法:在人工智能问题上,最佳的补救措施就是监管,而且是主动监管。
2017年7月,马斯克与扎克扎克伯格在AI威胁论上产生分歧,扎克伯格在Facebook直播中称其为“不负责任”。
即便马斯克对于人工智能的担忧遭受到许多质疑,但智能武器的研发却在真实领域中进行着。
智能武器所带来的危害
1981年签署的联合国《特定常规武器公约》中,对于禁用武器的标准做了两种特征规定:一是武器本身过度不人道,比如激光致盲武器;二是本身具有滥杀滥伤作用,比如战时大量布置地雷,给战后平民带来反复的生存威胁。
基于公约的两点规定,地雷、饵雷、燃烧武器、激光致盲武器等非大规模杀伤武器被列为了人类禁用武器。在人工智能武器并不能产生巨大杀伤力的今天,它的越界之处在于其本身存在的滥杀滥伤能力可能扩散。甚至操作不适当的话,人工智能武器可能引发人道危机。
比如说在2015年着名的黑客集会“黑帽子大会”上,就有研究人员现场展示通过无线控制器黑进了智能狙击步枪。这种武器可以智能测算风速、距离、开火时机等等因素,即使没开过枪的人也能轻易打中目标。而一旦黑客掌握了这种武器,那么狙击刺杀可以很轻易在万里之外操控,并且难以追查。
想象一下,原本需要训练数十年的狙击手和昂贵的狙击设备,现在一个黑客一部手机就搞定了。如此低的代价,社会安全从何谈起?
这也是科学家和企业家所真正担心的:原本用来改善世界的技术,却可以在几个翻转之后成为廉价、易得、难以控制的杀伤力源头,可说是对原本不安全的地球又一次重创。
人工智能武器化,或者说武器进行“人工智能+”的进程里,最尴尬的地方在于技术加持军备是个不可逆的过程。现代军事本身追求的就是投入更少的人、达到更高的精准度和效率,如何能放任武器自动化的果实而不摘呢?
但相比于技术道路上的尴尬,人工智能武器最让人担忧的地方来源于两个“深层危险”
战争门槛无限降低
人工智能介入战争与军事,带来的核心改变就是战争中的人力需求在快速萎缩。但很少的人就能发动战争可能在某些时候并非好事。
比如人工智能武器被恐怖主义和极端势力使用。原本需要大量人员来执行的任务如果可以通过一定的技术与很少的人来替代。那么恐怖主义裸露在地表的最后一块痕迹也将消失。
试想假如三两个疯狂的技术人员,就可以在远端遥控数十台自动射击的枪械机器人、上百台无人驾驶车辆,并且能把任何角落作为基地。那么恐怖主义将可以在难以琢磨的角落伸出利爪。
无人设备可以发动袭击,同时也能成为集权统治工具。比如独裁政府或者极端势力可以在全国反对的情况下,依靠少量人员和自动武器系统控制局面,那显然不是什么美好画面。
人工智能的介入,也让武器和战争越来越多元。比如将无人机、无人车、城市系统等智能体转化为武器,危险系数恐怕比传统武器要高很多。再比如人工智能虚拟武器的出现,可能发动直接摧毁民生基础设施的物联网战争。
暴力机器能够确保社会稳定,在于它的难以掌握和珍贵性。人工智能武器一旦泛滥,很可能把战争门槛无限降低。那么小到滋生社会暴力和恐怖主义,大到威胁国际军事秩序,都不是难以想象之事。
城市与人群成为核心目标
另一个骇人的想象,在于人工智能武器带来的无人化和自动化升级,很有可能改写战争这件事本身的目的。
从古代战争到现代战争,军事行为的核心目的都是消灭对方有生力量,占有对方资源。这个逻辑里,平民所在的生活与生产区域应该是占领的而非毁灭的。
但如果大量自动化武器成为军备的主轴,那么所谓的“有生力量”概念将被重写。由于军事人员大大减少,那么军事力量的核心将是军备生产能力。而在人工智能时代,工业体系生产将是需要各种技术生产集成化的,换言之军事生产能力将散落各处——于是平民集中区或许史无前例的成为了首要军事目标。
除了这个核心逻辑的改变,自动化武器的高效杀伤和无道德判断也可能极大增加战中平民伤亡。即使不考虑战争这种极端情况,人工智能武器作为侦查工具、监控工具,也可能威胁平民的隐私与信息、财产安全。
人类何去何从
人工智能+军事的高效、低耗让许多国家政府难以放弃,人工智能军事化也同样是难以抵挡的浪潮。重要的是,我们是否应该制定好应对的规则。
在此间,我们需要思考的几大问题:
1,如何对人工智能武器的种类和界限进行划分;
2,完善问责制度,当智能武器失控之后,谁为此负责,并且是否有能力承担这些责任;
3,重新认知、理解机器人伦理以及战争伦理,这是一则漫长的工作。
乌镇智库 资讯盘点
阅读推荐
一分钟看懂A.I企业简史
《中国区块链产业白皮书》完整版
最后更新:2017-10-07 23:22:33