63
机器人
新美国安全中心文章分析 人工智能时代对军事以及战略稳定性的影响
人工智能(AI)的快速发展在提升军事能力的同时,也在扰乱、破坏现有军事平衡。“杀人机器人”以及AI“军备竞赛”中展示的先进技术开始引起人们对AI可能产生风险的恐惧。“通用人工智能”(General AI)虽然在短期内还不太可能实现,但自主武器产生的破坏性影响却真实存在。
AI技术当前进展
AI目前已广泛应用于机器学习以及深度学习技术领域,如深度神经网络的使用、跨学科计算机视觉、模式识别和自然语言处理等学科。2016年,DARPA举行“网络大挑战”,验证了“自动攻击系统”在自动检测和修补软件漏洞方面的潜能。计算机围棋程序AlphaGo在人-机比赛中取得历史性胜利,表明其已掌握围棋竞技精髓,这一成就比人类预期至少早十年。
自主武器系统的应用风险
致命性自主武器系统产生的风险。自主武器产生的作战风险主要包括:复杂系统的操作失败,对手对自主系统的攻击和破坏(如欺骗和黑客行为),或系统之间的偶发互作用等。当前,对于AI在作战应用中产生风险的分析,均集中在使用致命性武器系统所涉及的伦理道德问题以及操作风险上。国际社会已开始讨论用法律规范自主武器系统的应用(核心原则是自主武器使用的必要性、区别性、均衡性以及伦理道德),但仍不清楚各国军方将如何解释并遵守这种法律框架。
分析错误导致决策错误。在军事行动中,如果作战环境、条件的演变不符合智能算法的预期分析,那么系统越复杂,产生的风险就会越大;使用机器学习支持军事情报、监视与侦察或指挥系统时,也会产生错误:处理卫星图像的计算机视觉算法在识别威胁或潜在目标时出现错误,就会导致分析情报出现错误,进而影响对战场环境的分析;用于机器翻译或自然语言处理的算法对关键情报信息分析出错,那么被引入到分析和决策过程中的信息也会是错误的。此外,对手还可能采取措施故意损害或干扰AI系统。
相关建议
美国、中国和俄罗斯已经认识到AI对国家防御的破坏性甚至革命性影响,正在积极寻求提升在军事领域应用AI的能力。2012年,美国防部发布有关自主武器系统政策指令,指出必须将自主武器系统设计为“在发挥效力时,允许指挥人员或者操作人员行使适当判断权利”。2017年初,美国防部建立“算法战跨职能小组”,加快国防部整合大数据和机器学习的能力。2017年夏天,中国发布“新一代人工智能发展规划”,寻求发展AI在国防领域的应用,如制定指挥决策、解决军事冗余以及研发防御装备。俄罗斯军方也在积极推进智能机器人研发相关方面的工作。
各国军方应努力寻求采取措施评估进而减轻AI在军事应用中产生的潜在风险。强化对军事AI系统的安全性和完整性的测试,重点关注在开放性、不受控制的环境中可能发生的潜在错误或故障。建立军事AI系统中的冗余系统,利用多种方法来检测错误和评估输出信息,确保获取情报的真实性。研发自动防故障装置或“断路器”,以在意外发生或风险升级的情况下允许系统自动解除故障。确保人工智能系统的“可解释性”,以减少决策争议。
觉得不错,请点赞
最后更新:2017-10-12 13:24:01