閱讀394 返回首頁    go 機器人


人工智能與法律的未來

上海社會科學界聯合會主辦主管

點擊播放 GIF/64K

以學術為底色 以思想為旗幟

人工智能與法律的未來

鄭戈 | 上海交通大學凱原法學院教授、博士生導師

本文原載《探索與爭鳴》2017年第10期

非經注明,文中圖片來自網絡

人工智能的迅勐發展不僅僅是一個科學技術領域的新現象,它正在迅速改變人類社會的經濟形態、社會交往模式和政治-法律結構。起源於農業社會(無論是古羅馬還是亨利二世時代的英國)的“現代”法律體係,能否成功應對人工智能所帶來的新的風險和不確定性,能否在人工智能時代繼續維持秩序與變革、守護與創新、價值與事實之間的動態平衡,這是今天的法律人所必須麵對的緊迫問題。

現代性與人類能力的機器替代

人工智能是現代工業文明發展的必然產物。早在“現代性”剛剛發端的時代,現代政治哲學的奠基者霍布斯,便開始把人和人類社會構想為當時最為精巧的機器——鍾表。在《論公民》的“前言”中,他寫道:“對於鍾表或相當複雜的裝置,除非將它拆開,分別研究其部件的材料、形狀和運動,不然就無從知曉每個部件和齒輪的作用。同樣,在研究國家的權利和公民的義務時,雖然不能將國家拆散,但也要分別考察它的成分,要正確地理解人性,它的哪些特點適合、哪些特點不適合建立國家,以及謀求共同發展的人必須怎樣結合在一起。”1611年出現的“機械人”(Automaton)一詞就是那個時代的社會想象的產物,它是指借用鍾表齒輪技術而製造出來的自動機械人偶。雖然這種人偶還完全不具備任何意義上的“智能”,但它卻體現了促使“人工智能”最終變成現實的那種思路:人的身體和大腦最終都可以用機器來模擬。

到了19世紀,隨著自然科學尤其是物理學的突破性發展,法國哲學家開始設想研究人類行為和人類社會組織方式的學科最終可以達到物理學那樣的成熟狀態。人們將可以通過觀察、統計和分析而發現近似於自然規律的社會規律,從而“研究現狀以便推斷未來”。這就意味著不僅個人的身體和大腦功能可以借助物理學法則用機器來取代,而且社會的組織機製包括法律,最終也可以由機器來操作和管理。

在孔德的時代,由於技術手段的欠缺,孔德的野心還無法變為現實。基於有限樣本的統計分析,還遠遠無法使社會預測達到物理預測那樣的精準性。但大數據存儲和分析已經使樣本分析有可能為整全數據分析所取代,並且日益實現動態化和分析者與對象之間的互動化。換句話說,機器通過“深度學習”也可以變得具有社會性,並且參與人類社會的各種活動,包括遊戲和工作。 在孔德的時代,英文中又出現了Android(人形機器)一詞,其詞根是古希臘文中的andro(人)和eides(形狀)。人是語言的動物,一個新語詞的出現必然是因為新的事物出現在了人們的現實生活或想象之中,而它能夠被普遍使用並成為語言的一部分,則是因為很多人都分享著它所表達的現實體驗或想象。

在工業化時代,用機器來取代人的勞動已經成為一個普遍現實,馬克思和恩格斯的經典著作中有許多對這種現實中工人階級悲慘處境的描述,和對造成這種狀態的生產關係和社會製度的批判。1920年,捷克作家卡雷爾·卡佩克(Karel Capek)創作了《羅素姆的萬能機器人》(Rossumovi univerzální roboti)劇本,發明了如今通用的Robot(機器人)這個詞匯,它的辭源是波蘭語中的強迫勞動(Robota)和工人(Robotnik)。如果說工業化時代的機器(無論是不是人形的)所取代的隻是人的一部分體力勞動,那麼作為工業化升級版的人工智能則是這個過程的自然延伸,它旨在取代人的一部分腦力勞動。

人類一直在試圖強化自己的能力。比如,過目不忘一直是中國傳統文人最為欣賞和希望得到的能力之一。《三國演義》中的張鬆,在接過楊修遞給他的《孟德新書》並快速瀏覽一遍之後,說這哪裏是什麼新書,分明是戰國時無名氏所作,為曹丞相所抄襲。楊修不信,結果張鬆把該書內容背出,一字不差。但如今的人工智能已經能夠輕鬆地做到這些,乃至更多。

人工智能實際上已經可以將腦力勞動和體力勞動、感知和思維、決策和執行結合到一起,從而更像是一個完整的人。至於是否具有“人形”已經不再重要了,任何關於“人工智能”的擬人化想象都是不必要的。有了物聯網、大數據和雲計算作為支撐(或組成部分)的人工智能,可以通過它的感官(遍布各處的傳感器)獲得千裏之外的數據,利用自己無比強大的記憶力(聯網計算機和雲存儲)來沉澱和消化數據,利用自己遠勝於人類的計算能力(算法和基於“神經網絡”技術的深度學習)來處理數據,並在此基礎上作出判斷和“決策”。

目前,人工智能正以驚人的速度在兩大領域推進:一是“合成智能”(synthetic intellects),即我們通常所說的機器學習、神經網絡、大數據、認知係統、演進算法等要素的綜合應用。它不是傳統意義上的編程,也就是說,它突破了“機器隻能做程序員編排它去做的事情”這一局限,你隻要給它一大堆人類窮其一生也無法瀏覽完的數據(在互聯網的幫助下,這意味著你隻要把它聯網並通過編程使它具有搜索功能),包括人類智力根本無法理解的無結構數據,再設定某個具體的目標,最終係統會產生什麼結果完全不可預見,不受創造者控製。圍棋智能體AlphaGo先後打敗李世石和柯潔,並以“獨孤求敗”的姿態“宣布退役”,隻是合成智能小試牛刀的一個例子。

另一個領域是“人造勞動者”(forged labors),它們是傳感器和執行器的結合,可以執行各種體力勞動任務,從海底采礦、外空維修到戰場殺敵。當然,離我們生活最近的例子是自動駕駛。這兩個領域的結合不僅意味著“機器人”的“頭腦”和“四肢”都是很強大的,還意味著“機器人”的大腦、感官和手足是可以分離的,手腳(執行器)可以延伸到離大腦(中央處理器)十萬八千裏的地方。在“萬物聯網”的時代,隻有不聯網的東西才不在人工智能的可控製範圍之內。

正因為如此,越來越多的人開始表示出對“人工智能”的擔憂。樂觀派認為人工智能是對人類能力的強化,它本身仍然處在人類的控製之下,因為它沒有“自我意識”和情感。沒有我執,也便沒有“貪、嗔、癡”,不會對人類構成威脅。甚至不能算是真正的智能,因為智能的內核是“主體的自由”以及主體對這種自由的自我認知和主動應用。但即使我們承認樂觀派對事實的描述和判斷是正確的,也已經有了擔心的由頭。

人工智能顯然不成比例地強化了一部分人的能力,即那些站在人工智能發展前沿的“大數據掌控者”和人工智能開發企業的能力,同時使越來越多的人變成難以保護自己的隱私和自由並麵臨失業風險的弱者。換句話說,以前可以自認為比藍領工人社會等級更高的白領腦力勞動者,如今也變成了新的隨時可能被機器所替代的勞工。當強弱懸殊越來越大,而且強者對弱者的剝削和控製越來越以“物理法則”而不是赤裸裸的暴力麵目出現時,“強者為所能為,弱者受所必受”的局麵就會成為普遍現象。自由與必然之間的關係,因人工智能的出現而越發成了一個由社會分層(階級)決定的事務:越來越少的人享有越來越大的自由,越來越多的人受到越來越強的必然性的束縛。

由於法治迄今為止被證明是保護弱者權益、使人避免落入弱肉強食的叢林法則支配的最有效機製,所以,當人工智能所帶來的新風險被許多人感知到的時候,人們自然希望法律能夠因應這種風險提供新的保障。但法律自身也麵臨著人工智能的勐烈衝擊。

人工智能對法律應對社會變遷的傳統模式的挑戰

法律是人的有限理性的產物,法律規則本身也體現並順應著人的局限性。正如麥迪遜所言:“如果人都是天使,就不需要任何政府了。如果是天使統治人,就不需要對政府有任何外來的或內在的控製了。”這個說法當然針對的是人的貪婪和野心,但也拓展到人的有限認知和計算能力。即使一個人充滿善意,他也可能因為自己的能力所限而對自己和他人造成傷害。而法律規則的設計和執行,都會把這種有限能力納入考慮。實際上,人類社會所有的規則,包括遊戲規則,都是有局限的人為有局限的人設計的。

下過圍棋的人都知道“金角銀邊草肚皮”這個基本的布局規則,這個規則的理由有兩個:一是效率,在角上無論是做眼還是吃掉對方棋子需要的步數都最少,在角上,做一個真眼需要三步棋,吃掉對方一個子隻需要兩步棋。二是計算能力,給定的邊界越多,需要考慮的可能性越少。效率考量使得AlphaGo在布局階段與人類高手相比並沒有太大的區別,仍然是先占角後取邊。但在序盤和中盤階段,AlphaGo卻更敢於向中腹突進,這是與它更強大的計算能力相適應的。

實際上,由於人認識到自己的局限性,所以在設計規則的時候所考慮的都是所謂常人標準,即以具有中等智力和體力水平的正常人作為規則可行性的判斷標準。而且,為了形成穩定的社會秩序,法律往往還會設置比常人標準更低一些的安全線。從這個意義上講,法律是一種保守的社會力量,不以滿足具有創新精神和創新能力的人士追求“更快、更高、更好”的野心為目的。梁漱溟先生所說的“經濟進一步,政治進一步,循環推進”,也適用於法律。法律調整經濟-社會關係的方式從來都是回應性的。在技術發展和社會-經濟結構變化緩慢的農業社會和早期工業化社會,這種保守傾向使法律發揮了很好的維持社會穩定的作用。

但在人工智能時代,它卻使法律滯後於技術和經濟的發展,使那些把握先機的人獲得了巨大的邊際回報。比如,互聯網金融和電子商務在中國的迅勐發展就是在相關法律缺位的情況下發生的,等到立法者開始製定規則來規範這個領域,法律所約束的隻是後來者,並且自然地鞏固了先占者的壟斷地位。同時,先占者又利用已經積累起來的經濟、技術和資源(數據)優勢,開始搶占未被法律規製的新領域。如此層層遞進,最終使得循規蹈矩、永遠在法律規定的範圍內活動的人們與他們之間的差距越來越大。

同時,正如石油是工業化時代最寶貴的資源一樣,數據是人工智能時代最重要的資源。掌控的數據越多,供人工智能“學習”的資源就越多,也就越容易在這個領域取得突破性的進展。這一事實導致了這樣幾個結果:

第一,它使個人的隱私和自由變得非常脆弱。這一點我已經在此前的一篇文章中做了詳細分析,這裏不再贅述。(詳見:鄭戈:在鼓勵創新與保護人權之間 ——法律如何回應大數據技術革新的挑戰 | 反思大數據)

第二,它使得傳統製造業和其他與互聯網沒有直接關聯的行業處在很明顯的劣勢。因為人工智能不是一個傳統意義上的新“行業”,也不是一種覆蓋人類生活全部領域的技術。最早進入互聯網領域的企業因其行業特性而自然成了“大數據掌控者”,而人工智能對大數據的依賴又使得它們自然成了人工智能領域的先驅,進而,它們又可以利用自己在人工智能方麵的優勢介入所有傳統行業,包括農業。

比如,通過在農作物上安裝生物傳感器來獲得比實驗室作業更加直接和可靠的植物生長數據,從而獲得農業科技方麵的突破。實際上,這並不是一種假設,而是穀歌和阿裏巴巴等公司正在做的事情,“精準農業定點解決方案”(Precision Agriculture Point Solutions)和“植物雲”等概念都對應著某種特定的商業模式。無論是政府還是社會對這種新生事物都有一種好奇和樂見其成的心態,希望看到結果後再采取行動,而當結果發生時,且不論它本身是好是壞,這些大數據掌控者全方位的優勢必然已經形成。

第三,由於這些企業已經掌握了比政府所掌握的更多的關於公民(作為消費者)的信息,熱衷於建設智慧城市、智慧政府、智慧法院的公權力部門也不得不求助於它們,浙江省法院係統求助於淘寶來獲得當事人真實住址信息,隻是一個還不那麼“智能”的例子。這將模煳公權力與私權力之間的邊界,使政府本來應該監管的對象成為政府的合作夥伴乃至實際控製者。

第四,這些掌握人工智能應用技術的企業,可以用人工智能來分析任何數據,包括消費者行為數據、政府決策數據、立法數據和法院判決數據,並生成對策。這些對策有些要求線下的人際溝通,而有些則完全可以通過線上操控來完成,比如穀歌和百度的搜索結果排序,京東、亞馬遜和淘寶的有針對性的商品推薦,等等,從而誘導個人消費行為和政府決策行為、立法行為。而這種誘導往往以非常隱秘的、合乎人性的方式展開,不會讓人覺得有什麼不好的事情正在發生。

由此導致的結果便是,人們都“自願服從”於某種他們看不見的力量,而這種力量借助“人工智能”的超強“腦力”使得法律和監管完全找不到對象,乃至被它牽著鼻子走。用臉書(Facebook)創辦人紮克伯格的話來說,我們正在進入“算法”而不是法律統治人的時代。而算法在表麵上就缺乏法律的無偏私性和一般性:它毫不遮掩地服務於設計者植入其中的目的。

第五,一旦人工智能被應用於本來就充滿流動性、風險與不確定性的金融市場,便可能帶來既無創新價值,又危害巨大的災難性後果。2010年5月6日,美國股市發生了“閃電崩盤”,一萬億的資產價值瞬間蒸發,股價齊跌9個百分點,道瓊斯指數急落1000點。美國證券交易委員會(SEC)花了半年的時間才搞清楚發生了什麼:原來是不同炒家的計算機程序在相互競爭的過程中導致了失控,在這個被稱為高頻交易的神秘世界裏,這些係統可以“迅雷不及掩耳”地收割小型獲利機會,還可以相互探測和利用彼此的交易策略。

像這樣的人工智能對決不僅存在於股票市場,還存在於任何投機性的多方博弈市場。事後追責型的法律對策,無法阻止人們在巨大利益的引誘下,利用人工智能進行這種損害範圍無法控製的賭博式行為。

在人工智能所帶來的人類生活世界的一係列改變中,以上隻是幾個比較突出的直接挑戰傳統法律應對模式的例子。隨著人工智能應用領域的不斷擴大(這是必然會發生的),它對現代法律體係的衝擊會越來越強烈。

然後,習慣於在固定的思維框架(法律教義)中來思考問題的法律人,很難跳出這種框架去麵對和理解日新月異的社會事實。在下麵一節,我將以歐盟的“機器人法”立法建議以及美、德兩國的無人駕駛立法為例,來說明這種傳統思維方式在應對人工智能問題時的局限性。

人工智能對法律職業的衝擊

(一)人工智能的“法律人格”

1942年,美國科學家和科幻小說作家伊薩克·阿西莫夫,在短篇小說《轉圈圈》中提出了“機器人的三條律法”:第一,一個機器人不得傷害一個人類,也不能因為不作為而允許一個人類被傷害;第二,一個機器人必須遵守人類施加給它的規則,除非這些規則與第一律法相衝突;第三,一個機器必須保護自己的生存,隻要這種自我保護不與第一或第二律法相衝突。但機器人發現自己無法同時遵守第二和第三條律法,因此它陷入了不斷重複自己先前行為的循環。

這種情況不會發生在人身上,也不會發生在其他生命體身上,因為,正如霍布斯所說,自我保存是第一自然法。人會本能地在自我保存與勿害他人之間選擇前者。逆此而行的利他主義行為有時也會發生,但要麼是道德教育或宗教信仰的結果,要麼是出於保護後代的延伸性自我保存目的。隻有嚴格按照人類植入其程序(算法)之中的規則來行事的機器人,才會陷入這種無解的怪圈。

在阿西莫夫提出機器人三大律法的前一年,德國工程師康拉德·楚澤剛剛發明世界上第一台能執行編程語言的計算機Z3,這套繼電器式計算機隻能存儲64個單詞的內容,而且運行速度極其緩慢。顯然,阿西莫夫還很難想象今天任何一部普通個人電腦的計算能力和存儲空間,更不用說互聯網和雲計算了。因此,他把機器人想象為一個具象化的、能夠傷害人的身體也能被人傷害的物體是可以理解的,而且實際上已經是非常有遠見的。但如今的法學家們仍然以這種擬人化的想象來理解機器人,試圖製定規範來約束它們的行為,甚至賦予它們法律主體資格,這便顯得有些不合時宜了。

2016年,歐洲議會向歐盟委員會提出報告,要求製定民事規範來限製機器人的生產和市場流通。其中第50(f)項建議:“從長遠來看要創設機器人的特殊法律地位,以確保至少最複雜的自動化機器人可以被確認為享有電子人(electronic persons)的法律地位,有責任彌補自己所造成的任何損害,並且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)。”

但在如何落實這種“法律人格”所必然帶來的民事行為能力和責任能力規則時,這份報告並沒有提出具體的方案。如果機器人對人造成了損害,究竟是適用羅馬法中的“繳出賠償”(noxoe deditio)原則(即把機器人交給受害者或其家屬處置),還是讓機器人支付賠償金或坐牢(在這種情況下,最終承擔責任的仍然是機器人的“主人”,因為機器人不可能有獨立的收入,限製它的“自由”則等於剝奪了其“主人”的財產權)?

由此可見,機器人無論以何種方式承擔責任,最終的責任承擔者都是人,這使得它的“法律人格”顯得多餘和毫無必要。

實際上,這份報告在具體的規則設計部分也自動放棄了適用機器人“法律人格”的努力,比如,它提議製造商為他們的機器人購買強製性保險。此外,還要設立專門的基金來補充保險機製,主要的出資人也是製造商、經銷商和其他利益相關者。這套保險機製的覆蓋範圍不僅是機器人,還包括機器管家、無人駕駛汽車和無人機等。該報告還提議設立專門的“歐洲機器人和人工智能局”來管理被歸類為“智能機器人”的機器。這體現了傳統的官僚機構思維方式。

這份報告指出,機器人的銷售在2010—2014年間增加了17%。涉及機器人的專利申請在十年間增加了三倍。德國人均擁有機器人的數量已位居全球第三,僅次於韓國和日本。僅在2015年,全球銷售的機器人就達到50萬個左右。預計到2018年,全球將有230萬個機器人在活動。但它並沒有提供這些機器人實際造成損害的數量和類型。

德國主要的工程和機器人行業協會VDMA發表了反駁聲明,指出政治家的擔心是科幻小說看多了的結果,目前人工智能給人類帶來的好處遠遠多於壞處,立法者不應該倉促出台規製措施來阻礙工業4.0的發展。在具有無限潛力的人類發展領域,充分的討論是有必要的,但沒有必要製定出詳細的法律規則。

(二)自動駕駛汽車

2017年5月,德國聯邦議會和參議院通過了一部法案,對《道路交通法》進行了修改。它允許高度自動化和完全自動化的汽車作為交通工具上路。但為了符合1968年《維也納道路交通公約》第八條“每一部車輛在行駛時都必須有駕駛員在位”的規定,它沒有允許自動駕駛汽車變成“無人駕駛”汽車。它規定,當自動駕駛係統啟動之後,司機可以轉移注意力,比如去讀書或上網,但她必須保持足夠的警覺,以便在係統發出請求時恢複人工控製。它還要求高度或完全自動化汽車安裝記錄駕駛過程的黑匣子,在沒有卷入交通事故的情況下,黑匣子信息必須保存半年。如果自動駕駛模式正在運行過程中發生了事故,責任在於汽車製造商。但如果自動駕駛係統已經發出了請求人工控製的信號,責任便轉移到了汽車上的駕駛人員身上。

在這部法律通過之前,法學家弗爾克·呂德曼(Volker Ludemann)教授曾經在聯邦議會發表專家意見,指出法律草案有四個缺陷,這些缺陷雖然後來部分得到了修正,但其給司機帶來的不確定性以及隱私問題卻仍然存在。

在新法下,司機不知道該怎樣做才能避免法律責任,自動駕駛汽車無法實現真正的“無人駕駛”,也就是車上隻有乘客而沒有駕駛員,阻礙了自動駕駛汽車的商業化發展。試想,如果一個人花比傳統汽車貴得多的價錢購買了自動駕駛汽車,卻時刻必須保持警覺,而且要在自動駕駛係統控製汽車操作一段時間後瞬間介入,應付緊急情況,這實際上對駕駛員提出了更高的要求。

新法把自動駕駛汽車造成人身傷亡的最高賠償額度提高到1000萬歐元,比原來的最高賠償額度增加了一倍。雖然這筆賠償在多數情況下將由保險公司支付,但保險公司無疑會提高保費,這也增加了自動駕駛汽車車主的負擔。此外,黑匣子信息保留半年的規定也增加了個人數據和隱私被濫用的風險,因為自動駕駛汽車上遍布的傳感器和攝像頭會記錄下非常多的個人私密信息。

與德國立法模式相對照,2017年9月在美國眾議院通過的《自動駕駛法》(Self Drive Act)則采取了一種完全不同的思路。它沒有改變現有的道路交通規則和與事故責任相關的侵權法規則,而是用憲法和行政法的思維方式劃分了聯邦與各州之間在規製自動駕駛汽車方麵的責任,明確了交通部在確立自動駕駛汽車硬件安全標準、網絡安全標準、公眾知情標準等方麵的具體義務和履行時間表。

其中第12條強化了隱私權保護,要求製造商和經銷商隻有在提出了滿足一係列具體要求的“隱私權保障計劃”的前提下,才可以供應、銷售或進口自動駕駛汽車。這些要求旨在確保自動駕駛汽車的車主和使用者對自己的個人數據和隱私有充分的控製能力,不至於在自己不知情的情況下任由製造商或程序設計者使用自己的個人數據。這部法律目前還沒有在參議院獲得通過,其內容還可能會有進一步修改,但基本框架應該不會有大的改變。

(三)算法設計者必須遵守的倫理規範

與上述約束自動駕駛汽車製造者和使用者的規範不同,德國交通部長任命的倫理委員會最近提出的一個報告,展現了一種完全不同的思路:要求算法(即軟件)編寫者遵守一係列倫理法則。其中提出了20條倫理指導意見,核心是把人的生命放在首位。比如,其中第七條要求:在被證明盡管采取了各種可能的預防措施仍然不可避免的危險情況下,保護人的生命在各種受法律保護的權益中享有最高的優先性。因此,在技術上可行的範圍內,係統必須被編程為在權益衝突時可以接受對動物和財產的損害,如果這樣可以防止人身傷害的話。第八條規定,諸如傷害一個人以避免對更多人的傷害這樣的倫理難題不能通過事先編程來處理,係統必須被設定為出現這種情況下請求人工處理。

法律如何更加“智能”地應對人工智能

正如尼古拉斯·卡爾所指出的那樣,人工智能是曆史悠久的人類工程學的最新發展,而人類工程學是藝術和科學結合的產物,它是為人類追求真善美的目的而服務的。人類不能被人工智能不斷增長的能力牽著鼻子走,乃至被帶入完全不受人類控製的未來。在筆者看來,為了更好地應對人工智能帶來的新風險,在保護創新的同時確保人類生活的美善品質,可能的法律發展包括以下幾個向度。

首先,現有的法律模式沒有擺脫傳統的具象化乃至擬人化思維方式,僅僅將有形的智能化機器或“機器人”納入規製範圍。但是,正如本文已經明確指出的那樣,這些有形的機器隻是人工智能的一種表現形態,即“人造勞動者”,它們都受一種無形的、彌散化的智能的控製,這種被稱為“合成智能”的由算法、網絡和大數據組成的無形、無界的存在,才是人工智能的智能所在。

正如李彥宏等敏銳地指出的那樣:“……也許真要靠算法的頂層設計來防止消極後果。人工智能技術可能不隻是理工科專業人士的領域,法律人士以及其他治理者也需要學習人工智能知識,這對法律人士和其他治理者提出了技術要求。法治管理需要嵌入生產環節,比如對算法處理的數據或生產性資源進行管理,防止造成消極後果。”這種“頂層設計”,我們可以稱之為“人工智能社會的憲法”,它的製定或生成需要法律人和程序員、人工智能專家的合作,以便使算法進入法律,法律進入算法,從而使人工智能的基礎操作係統符合人類的倫理和法律。

其次,為了做到這一點,政府應當在發展人工智能方麵加大投入,吸收更多的人工智能人才參與立法、行政和司法工作,避免使自己遠遠落後於商業力量。這在我國比較容易做到,因為頂尖的大學和科研機構都是國家資助和管理的。如果這些人才中大多數都轉而為商業機構服務,不僅無法體現社會主義的優越性,也不利於讓人工智能向服務於社會公共利益的方向發展。

再次,從現有的各國立法模式來看,歐盟和德國直接修改民事規則和交通法規的做法,是在事實不清、需要解決的問題不明朗的情況下做出的倉促選擇,既不利於鼓勵創新,也不利於保障公民的權利。在目前這個階段,比較穩妥的方案是美國式的公法模式,指定一個現有的政府部門負責確立相關的行業技術標準、安全標準和個人數據保護標準,而這個標準不應當是自上而下武斷強加的,而應當是對行業自身所發展出來的標準與公共利益、個人權利保護原則的綜合考量,其製定程序應當遵循公共參與、聽證等行政程序規則。

最後,德國的自動駕駛汽車程序設計倫理規範是一個可取的思路。由於人工智能的核心在於算法,算法的設計決定著智能化機器的“行為”。而對於普通人和大多數立法者、執法者和司法人員來說,算法是一個“黑箱”,人們隻能看到它所導致的結果,卻無法看到它的運作過程。

製定相關規則來約束算法設計者的行為,在發生可疑後果的時候要求程序員用自然語言來解釋算法的設計原理,並且追究其相關責任,這顯然是一種治本之法。但正如德國模式也隻是把這種思路落實為建議性的倫理規範一樣,這種規則變成法律仍有很大難度,需要立法者、執法者、司法者和公眾都有一定的人工智能知識,能夠及時發現可能由算法導致的危害性後果。

在人工智能知識像“普法”一樣被普及開來之前,一個過渡性的做法是設立由相關領域專家和法律職業人士共同組成的倫理委員會或“人工智能法院”,按照風險防範而不是糾紛解決的思路來處理相關規則的落實問題。

《探索與爭鳴》人間體

聯絡員小探

xiaotanxiaosuo

轉載 | 合作 | 谘詢 | 建議

長按掃碼加好友

END

人文社科學者的平台

《探索與爭鳴》

唯一官方微信平台

版權所有。歡迎個人轉發,媒體轉載請聯係授權

最後更新:2017-11-09 20:46:38

  上一篇:go 工業:機器人展望2025年
  下一篇:go 普京“現在我們比任何人都強”機器人軍隊正在測試中