183
機器人
人工智能讓未來戰爭更“人道”——回應埃隆·馬斯克先生
上海社會科學界聯合會主辦主管
點擊播放
GIF/64K
以學術為底色 以思想為旗幟
人工智能讓未來戰爭更“人道”——回應埃隆·馬斯克先生
徐英瑾 | 複旦大學哲學學院教授、博士生導師
本文原載《探索與爭鳴》2017年第10期,原標題為“人工智能將使未來戰爭更具倫理關懷——對馬斯克先生的回應”。
文中圖片未經注明均來自網絡
與很多人的估計相反,人工智能與既有武器平台的結合很可能反而會增加未來戰爭的倫理指數。由於人工智能的運用本身就具有“減少附帶傷害”這樣的潛在倫理目的,相關技術的提高顯然能夠使得軍事打擊變得更為精準,對民眾生命與物質財產的傷害也能夠被降到最小。同時,機器人戰士的大量部署能有效減少軍事開支中的人力成本支出,並能彌補因為人類士兵的生理極限而導致的防禦空白——這一點在反恐治安戰中顯然具有非常重要的戰術價值。人工智能的發展還能夠全麵提升未來戰爭的“無人化”水準,使得可能爆發的武裝衝突所導致的人類士兵的死亡率大大降低,而這一點也就使各國政府更容易開展針對武裝衝突的和平斡旋活動。
人工智能技術與武器的結合所可能導致的倫理後果,目前正成為海外媒體熱烈討論的一個話題。美國著名企業家馬斯克便在不同場合表示了對於人工智能武器化的擔憂,甚至認為:具有自我意識的人工智能在與特定武器相互結合成為“可以自動開火的人工智能係統”之後,或會對人類的生存構成威脅。在筆者看來,此類擔憂的確是有點言過其實。隻要施加特定的管製條件,人工智能與武器係統的結合其實反而是有利於增加未來戰爭的倫理指數的。不過,在具體展開相關討論之前,我們首先有必要先將此類討論所涉及到的一些概念問題加以澄清。
何謂“人工道德主體”與“武器”
所謂的“可以自動開火的人工智能係統”這個概念,其實包含了兩個關鍵成分:一個成分是在人工智能技術支持下的“人工道德主體(artificial moral agent)”,另一個成分則顯然是“武器”。但麻煩的是,這兩個概念成分的含義,其實都不像看上去的那麼一目了然。譬如,某個具有進行敵我識別能力的導彈,固然可以被說成是某種程度上的“人工道德主體”,因為它能夠自動尋找並殲滅目標,並在這個過程中恪守某種軍事道德(比如不誤殺友軍),但這種武器的“自主性”,與未來學家們設想的那種可以完全替代人類士兵的超級軍事機器人相比,顯然還有一定的距離。與之相類比,“武器”也是一個非常模煳的概念:從十字弩到彈道導彈,似乎都可以被籠統地稱為“武器”。有鑒於此,除非我們將“人工道德主體”與“武器”這兩個概念都予以分層次討論,否則,我們就無法清楚明白地表述出“可以自動開火的人工智能係統”這一概念的所指。
先來看“人工道德主體”。在美國學者瓦拉赫(Wendell Wallach)與艾倫(Colin Allen)合寫的名著《道德機器——教會機器人“是”與“非”》中,兩位作者曾將“人工道德主體”區分為三個層次,筆者覺得頗有參考價值。
第一,具有“運作性倫理性(operational morality)”——下麵簡稱為“弱倫理性”的人工製品。譬如,一把手槍的保險裝置就是此類倫理性的體現。保險裝置本身並不具有自覺的倫理意識,但是它的存在,畢竟被動地體現了設計者關於“保護射手安全”這一點的基本倫理意識。在這個層麵上,我們甚至還可以去批評某種武器的設計方案是“不倫理的”,譬如二戰時代日本“零式”戰鬥機糟糕的裝甲防護,就體現了設計者對於飛行員生命的漠視態度。
與之相比較,俄羅斯當下最先進的T-14坦克卻顯示出了這個維度的“倫理性”,因為這種坦克的無人炮塔設計可以大大增加乘員在坦克被擊中後的生還率(對於既有坦克戰數據的統計表明,在炮塔內的乘員在坦克被擊中後的生還率,的確要遠低於在底盤中工作的成員)。
第二,具有“功能性倫理性(functional morality)”——下麵簡稱為“中倫理性”的人工製品。譬如,現代噴氣式客機的自動駕駛儀,在很多場合下便能夠代替人類駕駛員進行駕駛,並由此體現出了很高的自主性。而此類製品與倫理性的關聯則體現在:出於對於倫理性,特別是“保護乘客的身心安全”這一倫理規範的考量,此類設備的設計者往往會禁止此類設備操控飛機作出某些劇烈的機動動作。需要指出的是,與前一類人工製品相比,在這一類人工製品中,倫理規範是以軟件代碼的形式出現的,而不是通過件的固定配置模式而體現自身的。因此,從原則上說,此類製品的倫理屬性也完全可能僅僅通過代碼層麵上的變更而變更。
第三,具有“整全能動性(full agency)”——下麵簡稱為“強倫理性”的人工製品。換言之,此類製品就像活人一樣,可以作出獨立倫理決策,並能夠理解其決策意義與後果,並在一定程度上能夠為其決策進行負責。很顯然,我們目前還沒有做出這樣的人工智能產品。
說完了“人工道德主體”,我們再來說“武器”。由於“武器”的品種太多,為了適應本文的討論語境,我們必須從施用武器的倫理後果的角度,來將其分為四類:
第一類,非致命性武器,如氣溶膠彈、激光致盲槍、擴音炮等(這類武器一般不會導致人員的死亡,但可能會有致殘的後果)。
第二類,短程戰術性武器,如機槍、坦克等(這類武器一般在低烈度與中等烈度的軍事衝突中使用,會導致人員傷亡,且武器使用的技術門檻比較低)。
第三類,長程戰術性武器,如戰鬥機、轟炸機、軍艦與不帶核武器的短程戰術導彈(這類武器一般在中等與高等烈度的常規戰爭中使用,會導致人員傷亡,但武器使用的技術門檻比較高)。
第四類,戰略性兵器,如核、生、化兵器,以及中遠程攜帶常規彈頭的導彈(這類武器會造成大量的人員傷亡,很可能會造成嚴重的環境汙染,至少會使得國際局勢變得非常緊張)。
很顯然,按照排列組合原理,我們現在就有了12種將武器類型與“人工道德主體”的類型相互組合的方式:(1)“弱倫理性”+“非致命性武器”;(2)“弱倫理性”+“短程戰術性武器”;(3)“弱倫理性”+“長程戰術性武器”;(4)“弱倫理性”+“戰略性武器”;(5)“中倫理性”+“非致命性武器”;(6)“中倫理性”+“短程戰術性武器”;(7)“中倫理性”+“長程戰術性武器”;(8)“中倫理性”+“戰略性武器”;(9)“強倫理性”+“非致命性武器”;(10)“強倫理性”+“短程戰術性武器”;(11)“強倫理性”+“長程戰術性武器”;(12)“強倫理性”+“戰略性武器”。在這12種可能性中,特別引發我們興趣的乃是最後四種,因為既然“強倫理性”與各種武器形式的結合目前還付諸闕如,對於它們的討論顯然也就具有了明顯的前瞻性意義。
而在這四種結合方式之中,首先要予以排除的乃是“強倫理性+戰略性武器”這種可能性,因為戰略性兵器使用的政治後果過於嚴重,幾乎不會有任何政治力量允許機器自行作出獨立的道德決策,以決定是否可以發出此類攻擊(但通過兵棋推演預測核反擊的後果除外,因為人工智能支持下的兵棋推演所產生的結果,最後依然需要人類決策者加以理解與運用)。除了這種可能性之外,在筆者看來,“強倫理性+非致命性武器”、“強倫理性+短程戰術性武器”、“強倫理性+長程戰術性武器”這三種組合都是可以被接受的。
開發具有自動倫理決策機製的武器平台之必要性
與馬斯克的論點相反,筆者認為:開發具有“自動倫理決策機製”的武器平台,從總體上看是能夠增加未來戰爭的倫理維度的。需要注意的是,“增加未來戰爭的倫理維度”一語並不是指消除戰爭。戰爭的爆發往往受到非常複雜的經濟、政治與文化心理因素的促動,而單純的技術進步並不能消除使得戰爭爆發的深層原因。在懸置具體戰爭本身的政治屬性的前提下,“增加倫理維度”便是指盡量減少平民與友軍的傷亡,盡量減少與軍事目標無關的民間財產的損失,盡量減少軍事行動對自然環境的負麵影響,等等。從這個角度看,戰爭本身的“非倫理性”或“非道德性”並不在我們的討論範圍之內,而屬於政治學與政治哲學的討論範疇。
那麼,為何說具有前節所說的“強倫理功能”的高度自動化的武器平台,能夠提高未來戰爭的倫理性呢?這可以從以下幾點來得到說明。
第一,如前所述,“弱倫理屬性”、“中倫理屬性”與“強倫理屬性”是從屬於一條完整的道德光譜帶的,而倫理能動性色彩在武器研發過程中的逐漸增強,往往也伴隨著戰爭自身人道指數的增強。譬如,二戰時候使用的自由落體航空炸彈由於不具備敵我識別能力、缺乏精確製導功能,對於它們的運用自然就不可避免地導致了大量的平民傷亡。而在冷戰時期,由於武器的精準度不夠,華約與北約集團都研製了大量小型戰術核武器(核魚雷、核炮彈等)用以執行某些非戰略任務——而此類武器一旦被使用,必將造成巨大的環境破壞。
而在現代條件下,隨著技術的進步,從遙遠的距離,並用更小的彈藥裝量對目標進行打擊,已經不再是奢望,而這樣的戰爭模式顯然會大大降低無辜群眾的傷亡與環境的破壞。不難推論出,人工智能技術的運用,在大方向上是有利於未來戰爭的人道指數的繼續提升的,因為“智能”在這樣的語境中首先關涉的就是“在複雜的戰爭環境中避免附帶傷害的能力”。
第二,從兵器史的角度看,能夠自動開火的武器曆史上早就有了,我們不必為此大驚小怪。我們知道,在傳統技術條件的陸地防禦戰之中,彌補防守一方兵力不足的最佳戰術手段就是安置地雷,因為地雷也是某種最原始意義上的“自動開火武器”(敵軍的腳踩上地雷,地雷就會自動爆炸)。從這個意義上說,具有倫理自主性的自動開火平台,在倫理上應當並不會比地雷更不可接受,因為這種擬議中的新兵器還具有根據不同的對象選擇具有不同烈度的打擊手段的能力,並因為具備了這種選擇能力而能夠避免更多的傷害。
第三,一些人或許會認為,現有的精確製導技術已經能夠滿足未來戰爭對於人道性的訴求,而不必賦予武器平台以自主射擊權,以增加不必要的倫理風險。但這些評論者並沒有意識到賦予武器平台以自動開火權的最重要的好處,即對於士兵人力的極大解放。不得不承認的是,人類士兵在體力與心理上的極限,以及使用人類士兵所導致的人力成本,乃是製約傳統軍力部署的重要瓶頸,而具有自動開火能力的武器平台的使用,則將在極大的程度上增加軍力部署的靈活性(這一點甚至適用於遠程操控的無人機,因為今天所謂的“無人機”依然是需要大量人力資源加以控製的)。
對於預防恐怖襲擊等特殊任務來說,這種靈活性將具有重大的戰術價值,因為傳統作戰條件下人類指揮員對於上級的匯報往往會浪費大量的時間(特別是在跨時區作戰的環境下,這樣的匯報會因為時區不同步的問題而受到人體生物節律的幹擾)——而恐怖分子或許可能會利用這一點,在人體最疲憊的時間點對平民發動攻擊。大量的武裝機器人不受“人體睡眠節律”影響的全天候巡邏活動,將在不增加人類軍警人力成本的前提下,比較完美地彌補上這一防禦漏洞。
第四,現有的無人機主要是用以攻擊地麵目標的,而不是用以空戰。如果有人要研製用以空戰的無人機的話,人類士兵遠程操作的方式可能會行不通(傳輸距離導致的延時誤差,在攻擊慢速的地麵目標時是可以容忍的,但這個問題卻會在瞬息萬變的空戰中導致致命的後果)。而這一點就會倒逼航空專家去研發可以自動開火的航空器。從倫理後效來看,此類兵器的出現反而很可能會增加未來空戰的人道性。
得出這一結論的具體推理是:由於不載人的戰鬥機可以在不考慮人體承受力的前提下發揮其機動力,這一點就會倒逼其潛在敵對國也開發類似技術,以免在軍事鬥爭中因為己方作戰平台機動力之不足而吃虧。這種相互競爭很可能會導致未來空戰的全麵無人化,並使得未來空戰出現“有輸贏卻無傷亡”的新局麵。而這種“不見血”的局麵,也可能使得軍事衝突的善後處理變得更加容易,更少刺激各交戰國內部的民族主義勢力,而各交戰國的外交官也便能更容易找到“台階”進入斡旋階段,最終防止軍事衝突的進一步升級。
不應過分憂慮人工智能技術倫理風險
對於筆者以上的辯護,心有不甘的讀者或許還會提出如下憂慮:憂慮之一,我們如何保證恐怖分子不會使用軍用人工智能技術來進一步增加其反人類活動的破壞力呢?憂慮之二,我們怎麼保證具有人工智能技術優勢的一方,不會憑借這一優勢肆意發動戰爭呢?憂慮之三,我們如何保證有自動開火權的武裝平台不會產生對於人類指揮員的反叛呢?憂慮之四:具有自動開火能力的機器人的使用,難道不會對戰爭責任的認定製造巨大的法律困擾嗎?
先來看上述第一點憂慮。從原則上說,恐怖分子從總體上說是缺乏開發高級智能兵器的精神動力的。其原因非常簡單,恐怖分子的目的就是製造無差別的大規模殺傷,而根本不可能關心“如何避免誤傷”的問題。同時,恐怖組織也可以通過自己的招募網絡,誘騙大量青年為其充當“肉彈”,而免去設計無人火力投射平台的所有技術麻煩。從某種意義上說,相比較智能化的無人火力投射平台而言,恐怖分子更感興趣的武器技術,很可能就是傳統意義上的核、生、化武器技術,因為這些技術才能夠最大程度地實現其“進行無差別屠殺”的目的。
當然,這並不是說恐怖分子不可能在一個更高的技術平台上利用各國軍警使用的智能化武器平台作惡,比如,他們可能入侵官方的武器指揮網絡,對機器人下達錯誤指令。但這方麵的風險在電腦網絡進入軍事指揮運用後就一直存在,高度智能化的軍用機器人的出現未必會使得此類風險增大,卻可能反而會減少這種風險,因為具有獨立決策能力的機器人的“獨立性”將在一定程度上抵消指揮網絡癱瘓的風險。
為了更深入地捍衛筆者的如上判斷,筆者試請讀者不妨思考一下恐怖分子(或一般犯罪分子)利用某種被人工智能技術加強過的電腦病毒進行“網絡戰”的可能性。從表麵上看來,被人工智能技術加強過的電腦病毒似乎會比原來意義上的電腦病毒帶來更大的破壞,因此,它們似乎也會給人類的和平與安全帶來更大的威脅。但隻要我們仔細一想,就會發現這樣的推理並沒有充分考慮到恐怖分子的思想特征。
恐怖分子與一般網絡犯罪分子往往缺乏精確厘定加害對象身份的動機,而以盡可能擴大網絡病毒的侵染麵積為樂事——譬如,2017年5月在全球爆發的網絡勒索病毒WannaCry,就能夠利用任何Windows操作係統的445端口所存在的漏洞進行瘋狂傳播——換言之,病毒的製造者根本就沒有興趣去厘定這台電腦的Windows操作係統與那台電腦的Windows操作係統之間的區別。
很顯然,如果病毒製造者要將攻擊目標限製在具有某些特殊特征的Windows操作係統之上的話,他們就需要全麵升級其病毒編製技術,而相關的升級難度,或許可類比於將傳統的“自由落體航空炸彈”升級為“精確製導炸彈”的難度。但問題是:如果這樣的技術與資金投入反而使得恐怖襲擊或網絡犯罪所造成的“駭人”效果被打上折扣的話,那麼,病毒製造者進行此番人力與資金投入的動機又何在呢?
而一個可與WannaCry病毒構成鮮明對比的案例,則由一種叫Stuxnet的計算機蠕蟲病毒提供。與WannaCry病毒不同,這種計算機蠕蟲病毒由美國與以色列情報部門聯合研發,以便通過“入侵伊朗納坦茲核設施之網絡”的方式而去癱瘓其離心機的運作,由此遲滯伊朗的核研發進度。很顯然,與WannaCry病毒相比,Stuxnet的攻擊對象明確,其運作也體現了一定的人工智能特征,因為除了“離心機”這個確定的打擊對象之外,該病毒並不會“誤傷”與之無關的伊朗民用設施。
不難想見,拋開美、以遲滯伊朗核研發進度這一動機自身的合理性不談(正如前文所指出的,對於這一問題的考量屬於政治學範疇,而不在本文論域之內),此類戰法能夠有效避免意圖實施國出動空軍對伊朗核設施進行物理意義上的空襲,因此,反而能以小的人道代價達到相關國之戰略目的。真正的“人工智能戰”的倫理性,由此也可見一斑。
再來看上述第二點憂慮。就目前世界各國的軍事裝備研發能力而言,能夠有資格研發具有高度自主性的智能兵器的國家,無非就是美、中、俄、歐盟、日等少數幾家。其中,美國與歐盟以及日本互為盟友,彼此之間不會發生戰爭。俄國目前的確在人工智能技術的軍事化方麵下了很多功夫(其設計的無人戰車“烏蘭”已經在敘利亞戰場獲得了一定的戰績),但由於俄國國力的限製,其在相關領域內的技術成長空間可能還是有限的。
就我國的情況而言,目前我國在軍事科技方麵的發展可謂突飛勐進,且在南海與東海方向,也的確與美、日等國均有著軍事與政治利益方麵的角力。然而,鑒於我們與美、日之間在其他方麵的密切聯係(特別是經貿與文化聯係),彼此之間爆發全麵軍事衝突的概率並不高。在這樣的情況下,可以自動開火的武裝平台(如前麵提到的可以自動開火的戰鬥機)的問世,反而可以為宣示我們對於領海、領空的主權,提供了一種相對經濟、不容易導致衝突升級,且依然具有威懾力的技術手段。
再來看上述第三點憂慮。機器人戰士會反叛人類嗎?這裏需要指出的是,“反叛”是一種具有自主意識的行為:我們可以將呂布對於董卓的反叛稱為“反叛”,因為我們知道呂布為什麼反叛董卓;相反,我們卻不能說一把不小心敲到使用者手指上的榔頭“背叛”了使用者,因為榔頭本身並沒有能力意識到它的特定物理移動方式的意義。與之類似,若我們要承認機器人戰士有反叛人類的可能性,我們就得預先承認機器人有產生與人類指令相互衝突的“欲望”的可能性,但這一點本身又如何可能呢?
按照著名的“艾西莫夫三定律”,機器人既有義務聽從人類的指令,又需要負責對自己的“身體”進行保存,同時還會執行一些被預先規定的先驗的規範性指令 。但在特定的語境中,這些規範性要求之間是可能發生衝突的。因此,當機器人因為某些複雜的環境因素——特別是因為執行別的規範性要求——而違背人類的軍事指令的時候,我們就可以說機器人在“造反”了。
不過,從某種意義上說,這種反叛可能未必一定是壞事,因為按照筆者在上麵這個自然段中所描述出來的這種可能情境,軍用機器人並不是因為執行了與人類完全不同的行為規範而去背叛人類指揮官的,而恰恰是因為在“如何判定彼此衝突的規範的優先性序列”這個問題上產生了“己見”,才背叛了人類指揮員的。這也就是說,如果我們為未來的機器人戰士預先“灌輸”了某些被公認的軍事道德準則(如不許虐殺俘虜),而個別的人類指揮員又出於某些複雜的原因,下達了違背這些軍事道德準則的命令的話,那麼,機器預先設置的“道德編碼”反而能夠成為防止個別人類作惡的一道“防波堤”。
當然,在馬斯克這樣的技術末世論者的眼中,他們所想到的“技術反叛人類”的場景將更具衝擊力,譬如這樣的畫麵:所有的機器人都聯合起來反抗人類對於機器的統治。但在筆者看來,在我們嚴肅地討論這種可能性之前,我們必須更加嚴肅地思考這樣一個問題:所有的機器人聯合在一起反叛人類的動機究竟是什麼?曆史上人類的軍事鬥爭往往牽涉對於種種生物學資源(如土地、河流、人口等)的爭奪,而作為“矽基存在者”的智能機器人的運作顯然並不直接依賴於這些生物學資源,因此,我們也很難設想它們會對占據“肥沃的土地”與“可以灌溉的河流”產生興趣。
當然,這些“矽基存在者”的運作依然需要大量的傳統能源,並可能在這個意義上產生與人類社會的爭奪,但智能設備的大量運用所消耗的新能源,是否能夠因為人力活動的相應減少而得到抵消,依然是一個巨大的未知數。同時,核聚變技術在未來的運用是否能夠一勞永逸地減少全球的能源問題,也是一個巨大的未知數。在這些前提要件都不太明朗的情況下,就去匆忙討論機器聯合起來與人類爭奪能源的可能性,未免過於心急。
最後再來看前述第四點憂慮。在很多討論中,“可以自動開火的軍用機器人所帶來的法律問題”,往往與“自動駕駛技術所帶來的法律問題”相提並論。在很多人看來,由於法律責任的傳統承擔者是自然人,而當實施行為的自然人被替換為人工智能主體後,現有的法律體係自然就麵臨著被顛覆的危險。不過,在筆者看來,與以民用自動駕駛車輛為聚焦點的法律語境相比,在軍事行動的語境中,此類法律—倫理問題的尖銳性恰恰是被淡化了,而不是更突出了。
這是因為:人工智能化的武裝平台與人類士兵一樣,都必須服從人類指揮員的軍事指令,並在軍事指令所允許的範圍內相對自由地行動(從這個意義上說,“具備自由開火的能力”並不意味著這樣的軍事平台可以脫離人類的指揮體係自行其是)。因此,在大多數情況下,對於相關的軍事指令的直接政治—法律—倫理後果的承擔者,自然就應當是下達命令的指揮官,而不是普通士兵或者是人工智能化的武裝平台。由此,在執行上級命令的過程中,自動化的武裝軍事平台一旦產生相對嚴重的倫理後果——譬如誤傷了平民或友軍,對於相關後果的評估,也應當充分考慮到執行任務時的複雜狀況。而這種評估本身也無非隻能產生四種結果。
(1)人類指揮員對機器人戰士所下達的“允許射擊”的命令過於急躁,而沒有考慮到現場的民眾生命安全;(2)機器人戰士的運作產生了故障,導致其射擊不夠精準;(3)現場的情況過於緊急,且機器人戰士是出於“緊急避險”的考量才不得不開火,並因此而誤傷了來不及撤離現場的民眾(而任何一個正常的人類戰士都無法在這個語境中避免此類附帶傷害);(4)機器人對於上述“緊急避險”的考量出現失誤,或對人類指揮員的命令的語義產生誤判,由此在不必動用致命性武器的情況下輕易升級火力的投放量,由此導致不必要的民眾傷亡(而任何一個正常的人類戰士都能夠在此類語境中判斷出這種“火力升級”的不必要性)。
很顯然,對於這四種判斷結果,我們都可以分別進行相應的法律歸責。具體而言,在情境(1)中,歸責主體顯然是人類指揮員;在情境(2)中,歸責主體則是機器人作戰平台的保養與維修單位;在情境(3)中,歸責主體不存在,因為機器人戰士不開火所導致的倫理後果可能更為嚴重;在情境(4)中,歸責主體為機器人戰士的語義理解係統與實時推理係統的軟件設計單位。盡管這種“分情況討論”式的歸責活動的流程會因為具有自動射擊能力的機器人戰士的出現而變得複雜,但沒有任何先驗的理由驅使我們,認為這些複雜狀況會造成某些不可化解的倫理與法律難題,除非我們承認:在機器人戰士出現之前的複雜軍事語境中,已經出現的種種道德兩難抉擇,本來便是不可化解的。
綜合上麵的討論,我們不妨可以得出這樣的結論:盡管具有“自動射擊能力”的軍用機器人會具備過往的所有已知作戰兵器所不具備的自主性,但這種自主性並不會高於普通的人類士兵所具有的權限。所謂“自動射擊能力”並不等於“開戰權”,而僅僅是指在人類指揮員下達命令後根據自己的判斷進行目標選擇與攻擊的戰術能力。從這個角度看,機器人戰士脫離人類指揮員管製的風險,並不比人類士兵脫離上級指揮員管製的風險來得更大,甚至很可能會更小。所有試圖誇大機器人戰士之倫理風險的論者,不妨先思考一下使用人類戰士的倫理風險,然後再對運用機器戰士與人類戰士的利弊作出一番更為公允的評估。
《探索與爭鳴》人間體
聯絡員小探
xiaotanxiaosuo
轉載 | 合作 | 谘詢 | 建議
長按掃碼加好友
END
人文社科學者的平台
《探索與爭鳴》
唯一官方微信平台
版權所有。歡迎個人轉發,媒體轉載請聯係授權
最後更新:2017-11-01 12:31:45