閱讀63 返回首頁    go 機器人


新美國安全中心文章分析 人工智能時代對軍事以及戰略穩定性的影響

人工智能(AI)的快速發展在提升軍事能力的同時,也在擾亂、破壞現有軍事平衡。“殺人機器人”以及AI“軍備競賽”中展示的先進技術開始引起人們對AI可能產生風險的恐懼。“通用人工智能”(General AI)雖然在短期內還不太可能實現,但自主武器產生的破壞性影響卻真實存在。

AI技術當前進展

AI目前已廣泛應用於機器學習以及深度學習技術領域,如深度神經網絡的使用、跨學科計算機視覺、模式識別和自然語言處理等學科。2016年,DARPA舉行“網絡大挑戰”,驗證了“自動攻擊係統”在自動檢測和修補軟件漏洞方麵的潛能。計算機圍棋程序AlphaGo在人-機比賽中取得曆史性勝利,表明其已掌握圍棋競技精髓,這一成就比人類預期至少早十年。

自主武器係統的應用風險

致命性自主武器係統產生的風險。自主武器產生的作戰風險主要包括:複雜係統的操作失敗,對手對自主係統的攻擊和破壞(如欺騙和黑客行為),或係統之間的偶發互作用等。當前,對於AI在作戰應用中產生風險的分析,均集中在使用致命性武器係統所涉及的倫理道德問題以及操作風險上。國際社會已開始討論用法律規範自主武器係統的應用(核心原則是自主武器使用的必要性、區別性、均衡性以及倫理道德),但仍不清楚各國軍方將如何解釋並遵守這種法律框架。

分析錯誤導致決策錯誤。在軍事行動中,如果作戰環境、條件的演變不符合智能算法的預期分析,那麼係統越複雜,產生的風險就會越大;使用機器學習支持軍事情報、監視與偵察或指揮係統時,也會產生錯誤:處理衛星圖像的計算機視覺算法在識別威脅或潛在目標時出現錯誤,就會導致分析情報出現錯誤,進而影響對戰場環境的分析;用於機器翻譯或自然語言處理的算法對關鍵情報信息分析出錯,那麼被引入到分析和決策過程中的信息也會是錯誤的。此外,對手還可能采取措施故意損害或幹擾AI係統。

相關建議

美國、中國和俄羅斯已經認識到AI對國家防禦的破壞性甚至革命性影響,正在積極尋求提升在軍事領域應用AI的能力。2012年,美國防部發布有關自主武器係統政策指令,指出必須將自主武器係統設計為“在發揮效力時,允許指揮人員或者操作人員行使適當判斷權利”。2017年初,美國防部建立“算法戰跨職能小組”,加快國防部整合大數據和機器學習的能力。2017年夏天,中國發布“新一代人工智能發展規劃”,尋求發展AI在國防領域的應用,如製定指揮決策、解決軍事冗餘以及研發防禦裝備。俄羅斯軍方也在積極推進智能機器人研發相關方麵的工作。

各國軍方應努力尋求采取措施評估進而減輕AI在軍事應用中產生的潛在風險。強化對軍事AI係統的安全性和完整性的測試,重點關注在開放性、不受控製的環境中可能發生的潛在錯誤或故障。建立軍事AI係統中的冗餘係統,利用多種方法來檢測錯誤和評估輸出信息,確保獲取情報的真實性。研發自動防故障裝置或“斷路器”,以在意外發生或風險升級的情況下允許係統自動解除故障。確保人工智能係統的“可解釋性”,以減少決策爭議。

覺得不錯,請點讚

最後更新:2017-10-12 13:24:01

  上一篇:go 新興品牌愛馳億維,人工智能在路上
  下一篇:go 創業板強勢翻紅 人工智能板塊大漲!