閱讀459 返回首頁    go 機器人


人工智能是否會降低恐怖分子和極端勢力的犯罪成本?

阿西莫夫三大定律:

第零定律:機器人不得傷害人類整體,也不能坐視人類整體受到傷害;

第一定律:機器人不得傷害人類,或因不作為使人類受到傷害;

第二定律:除非違背第一法則,機器人必須服從人類的命令;

第三定律:在不違背第一及第二法則下,機器人必須保護自己。

阿西莫夫定律的提出,是架構於作者文學作品之下的核心邏輯,《西部世界》因為三大定律的存在得以展開與運作,但返回到現實世界,人類還尚未找到能夠轉化成為實質限製的“三大定律”,而在此之前,人們已經迫不及待地開始製造“智能化殺器”。

鋼鐵俠的AI警示之路

三年前,特斯拉創始人埃隆·馬斯克在看完《超級智能》,寫下感想:我們必須對人工智能超級謹慎,它的潛力可能比核彈還危險。

8月20日,馬斯克與來自26個國家的116名機器人和人工智能公司的創始人簽署了一份公開信,在墨爾本召開的國際人工智能聯合會議(IJCAI)開幕式上公布唿籲禁止使用機器人武器。馬斯克等人希望唿唿聯合國官員,考慮在聯合國常規武器公約中加入機器人武器。

日前,馬斯克提出了與三年前幾乎一樣的觀點:人工智能對人類的威脅比朝鮮核武器還要大。

自馬斯克第一次提出警惕人工智能的觀點,其近年來不斷向人們拋出類似觀點。

2014年6月,馬斯克接受美國財經電視頻道CNBC采訪時表示,他認為,有一天類似“終結者”這樣的人工智能場景,可能會變成現實。

2014年8月,馬斯克在Twitter發布一條微博。他寫道:“我們必須對人工智能超級謹慎,它的潛力可能比核彈還危險。”

2015年1月,霍金與馬斯克共同發表公開信,他們認為人工智能的發展應該受到控製。信中警告科學家們警惕人工智能將抹殺人類。

2017年7月,馬斯克在美國州長協會上的一次會議上針對人工智能發表了自己的看法:在人工智能問題上,最佳的補救措施就是監管,而且是主動監管。

2017年7月,馬斯克與紮克紮克伯格在AI威脅論上產生分歧,紮克伯格在Facebook直播中稱其為“不負責任”。

即便馬斯克對於人工智能的擔憂遭受到許多質疑,但智能武器的研發卻在真實領域中進行著。

智能武器所帶來的危害

1981年簽署的聯合國《特定常規武器公約》中,對於禁用武器的標準做了兩種特征規定:一是武器本身過度不人道,比如激光致盲武器;二是本身具有濫殺濫傷作用,比如戰時大量布置地雷,給戰後平民帶來反複的生存威脅。

基於公約的兩點規定,地雷、餌雷、燃燒武器、激光致盲武器等非大規模殺傷武器被列為了人類禁用武器。在人工智能武器並不能產生巨大殺傷力的今天,它的越界之處在於其本身存在的濫殺濫傷能力可能擴散。甚至操作不適當的話,人工智能武器可能引發人道危機。

比如說在2015年著名的黑客集會“黑帽子大會”上,就有研究人員現場展示通過無線控製器黑進了智能狙擊步槍。這種武器可以智能測算風速、距離、開火時機等等因素,即使沒開過槍的人也能輕易打中目標。而一旦黑客掌握了這種武器,那麼狙擊刺殺可以很輕易在萬裏之外操控,並且難以追查。

想象一下,原本需要訓練數十年的狙擊手和昂貴的狙擊設備,現在一個黑客一部手機就搞定了。如此低的代價,社會安全從何談起?

這也是科學家和企業家所真正擔心的:原本用來改善世界的技術,卻可以在幾個翻轉之後成為廉價、易得、難以控製的殺傷力源頭,可說是對原本不安全的地球又一次重創。

人工智能武器化,或者說武器進行“人工智能+”的進程裏,最尷尬的地方在於技術加持軍備是個不可逆的過程。現代軍事本身追求的就是投入更少的人、達到更高的精準度和效率,如何能放任武器自動化的果實而不摘呢?

但相比於技術道路上的尷尬,人工智能武器最讓人擔憂的地方來源於兩個“深層危險”

戰爭門檻無限降低

人工智能介入戰爭與軍事,帶來的核心改變就是戰爭中的人力需求在快速萎縮。但很少的人就能發動戰爭可能在某些時候並非好事。

比如人工智能武器被恐怖主義和極端勢力使用。原本需要大量人員來執行的任務如果可以通過一定的技術與很少的人來替代。那麼恐怖主義裸露在地表的最後一塊痕跡也將消失。

試想假如三兩個瘋狂的技術人員,就可以在遠端遙控數十台自動射擊的槍械機器人、上百台無人駕駛車輛,並且能把任何角落作為基地。那麼恐怖主義將可以在難以琢磨的角落伸出利爪。

無人設備可以發動襲擊,同時也能成為集權統治工具。比如獨裁政府或者極端勢力可以在全國反對的情況下,依靠少量人員和自動武器係統控製局麵,那顯然不是什麼美好畫麵。

人工智能的介入,也讓武器和戰爭越來越多元。比如將無人機、無人車、城市係統等智能體轉化為武器,危險係數恐怕比傳統武器要高很多。再比如人工智能虛擬武器的出現,可能發動直接摧毀民生基礎設施的物聯網戰爭。

暴力機器能夠確保社會穩定,在於它的難以掌握和珍貴性。人工智能武器一旦泛濫,很可能把戰爭門檻無限降低。那麼小到滋生社會暴力和恐怖主義,大到威脅國際軍事秩序,都不是難以想象之事。

城市與人群成為核心目標

另一個駭人的想象,在於人工智能武器帶來的無人化和自動化升級,很有可能改寫戰爭這件事本身的目的。

從古代戰爭到現代戰爭,軍事行為的核心目的都是消滅對方有生力量,占有對方資源。這個邏輯裏,平民所在的生活與生產區域應該是占領的而非毀滅的。

但如果大量自動化武器成為軍備的主軸,那麼所謂的“有生力量”概念將被重寫。由於軍事人員大大減少,那麼軍事力量的核心將是軍備生產能力。而在人工智能時代,工業體係生產將是需要各種技術生產集成化的,換言之軍事生產能力將散落各處——於是平民集中區或許史無前例的成為了首要軍事目標。

除了這個核心邏輯的改變,自動化武器的高效殺傷和無道德判斷也可能極大增加戰中平民傷亡。即使不考慮戰爭這種極端情況,人工智能武器作為偵查工具、監控工具,也可能威脅平民的隱私與信息、財產安全。

人類何去何從

人工智能+軍事的高效、低耗讓許多國家政府難以放棄,人工智能軍事化也同樣是難以抵擋的浪潮。重要的是,我們是否應該製定好應對的規則。

在此間,我們需要思考的幾大問題:

1,如何對人工智能武器的種類和界限進行劃分;

2,完善問責製度,當智能武器失控之後,誰為此負責,並且是否有能力承擔這些責任;

3,重新認知、理解機器人倫理以及戰爭倫理,這是一則漫長的工作。

烏鎮智庫 資訊盤點

閱讀推薦

一分鍾看懂A.I企業簡史

《中國區塊鏈產業白皮書》完整版

最後更新:2017-10-07 23:22:33

  上一篇:go 翻譯:人工智能將預測環法比賽的關鍵時刻
  下一篇:go 阿爾法狗的神經網絡 如今幫助ofo小黃車打造物聯網閉環