閱讀252 返回首頁    go 機器人


張蘊嶺:人工智能發展的技術與道德之辯

本文大概1700字,讀完約4分鍾

前不久,116名專家簽名唿籲,聯合國應禁止研發和使用殺人機器人(即自動化武器,如無人機、無人戰車、哨兵機器人、無人駕駛軍艦等)。他們警告,世界正進行殺人機器人的軍備競賽,會引起“戰爭革命”,致命的自動化武器將成為恐怖的殺人武器,會引發空前規模的武裝衝突。

技術進步是推動世界發展的重要動力。然而,幾乎所有的技術都有利有弊,人工智能技術也是如此。從技術的發展史看,武器的發展總是與技術的進步相伴,技術成為戰爭的工具。其實,關於技術與道德的討論早就有之,基本的問題是如何處理技術與道德之間的關係。從本質上看,技術屬於科學的範疇,科學不斷發展,技術水平不斷提升,技術的使用範圍也必然擴大,而就技術本身而言,其使用是沒有邊界的。道德屬於哲學的範疇,哲學的基本原理是認識人類行為,包括人與人、人與社會以及國別與世界的關係等。道德是為這些行為確立正義規範,而那些基於公共利益的規範便是社會公德。

人類共處同一個地球,但地域、國家以及階層把人分割在不同的空間裏。生存之爭、利益之爭、權利之爭等,讓人一直處在“拚死的”爭鬥環境之中。在這樣的環境中,什麼是公德,如何形成和落實公德,就需要人類去規範。從“人類命運共同體”的角度來認識,所謂公德,就是利於共同生存的規範。然而,現實中,公德並非自然產生。常被引述的例子是所謂“公地悲劇”,即大家共用一塊草地,盡管每家都知道過度放牧會導致草被吃光,最終使人畜無法生存,但每一家都不會主動減少或者放棄,為了私利甚至增加牲畜的數目。那麼,在此情況下,誰來製定規則呢?生存危機感或者道義感會促使大家共同采取行動,製定公約,對牲畜數量、放牧時間進行限定,對草地進行維護等。

從世界範圍看,對於國際規約的需求越來越多,一則是因為全球化的發展,把世界越來越緊密地連接成一個整體,相依相存;二則是由於技術的發展對於人類活動的影響越來越大。在諸多的國際規約中,有些是出於共同認知的“議定”,通過集體簽字成文,作為公約。涉及戰爭的典型例子是1925年由37個國家簽署的禁止在戰爭中使用窒息性、毒性氣體和細菌議定書,後來越來越多的國家簽署,成為一項國際公約。自從成立了聯合國,聯合國在製訂國際規則中開始起核心作用。就涉及戰爭武器的領域而言,聯合國先後製訂了核不擴散條約、禁止生物武器公約、禁止化學武器公約等,核武器、生物武器、化學武器等被稱為大規模殺傷性武器。核武器是最可怕的,現存的核武器已經足夠毀滅人類。然而,禁核難度極大,一是公約國家不包括擁有核武的安理會常任理事國,二是有些國家繼續發展核武器。今年3月舉行的聯合國禁核條約大會,包括安理會常任理事國在內的有核國家無一參加。目前,除安理會五個常任理事國外,印度、巴基斯坦、以色列和朝鮮都擁有核武器,印巴均未簽署核不擴散條約,以色列采取不否認、不承認的鴕鳥政策,朝鮮繼續我行我素,進行一輪輪核試驗。禁核任重道遠。

如今科學技術進入到一個新的時期,人工智能技術正以前所未有的速度和規模得以發展和利用。基因技術的開發和利用,特別是克隆技術、基因移植和培育技術的使用涉及人類倫理的道德底線。既然可以克隆羊、牛、豬,克隆人的技術障礙就不存在了,據說有的個人或者公司已經開始進行造人的實驗,而且獲得了成功。如果說通過試管嬰兒為不育者提供生育機會還可接受的話,純粹出於商業目的或者其他目的的造人,就突破人倫底線了。一些國家已經通過立法禁止造人的活動,但迄今,聯合國還沒有采取行動。而把人工智能與自動化應用到武器開發上,製造無人機、殺人機器人,顯然超越了一般的大規模殺傷性武器概念。美國的無人機用於打擊極端分子,但也“誤殺 ”了為數不少的平民。設想,未來天上是無人機,地上是戰爭機器人,而指揮殺人者卻遠離戰場喜笑顏開,那樣的境況真是令人不寒而栗,況且,無人機、戰爭機器人可以作為商品買賣、大規模擴散,如此這般,未來的世界會變成什麼樣子?

正如專家們所警告的,人類麵臨的危險的是把戰爭工業化,人工智能技術已經達到了一個節點,自動化武器的部署將成為現實,現在到了危險的邊緣,留給國際社會采取行動的時間已經不多了,“潘多拉的盒子一旦打開就很難關上”。聯合國該采取行動了,特別是安理會常任理事國,能否做出表率、起帶頭作用呢?

來源於《世界知識》2017年第20期

責任編輯:陳軻

最後更新:2017-10-26 19:25:41

  上一篇:go 人工智能“灌澆”智慧社區 安防能否生根發芽?
  下一篇:go 除了下圍棋,人工智能還可以這樣強勢