閱讀158 返回首頁    go 機器人


吳漢東:人工智能時代的製度安排與法律規製

吳漢東

中南財經政法大學文瀾資深教授

中南財經政法大學知識產權研究中心主任

對於人工智能引發的現代性的負麵影響,有必要采取風險措施,即預防性行為和因應性製度。麵向未來時代的調整規範構成,應以人工智能的發展與規製為主題,形成製度性、法治化的社會治理體係,包括以安全為核心的法律價值目標、以倫理為先導的社會規範調控體係和以技術、法律為主導的風險控製機製。借鑒國外經驗,立足本土需要,當前應盡快出台 “國家發展戰略”,及時製定“機器人倫理章程”,適時進行機器人專門立法。

目次

導言

一、智能革命圖景:“最後的發明”抑或最大的風險

二、人工智能技術在挑戰我們的法律

三、麵向未來時代的製度構成:法律、政策與倫理

結語

本文原題為《人工智能時代的製度安排與法律規製》,文章首發於《法律科學》2017年第5期,為閱讀方便,略去腳注,如需引用,請參閱原文,敬請關注!

導言

在人工智能技術日新月異的時代變革中,人類/機器人關係所引發的各種法律、政策和倫理問題緊迫地擺在我們的麵前。如何調整“促進”與“規製”人工智能發展的法律價值目標?如何應對人工智能技術帶來的社會風險?如何設計人工智能時代的調控規範體係?這些問題不僅涉及對傳統法律製度的深刻反思,更是以“未來法學”問題為主旨的有益探索。

智能革命圖景:

“最後的發明”抑或最大的風險

進入新世紀以來,人類社會的文明演化呈現出加速發展的態勢。21世紀的最初十年,以互聯網的普及使用為紐帶,社會結構得以重新組織,人類社會與物理社會廣泛連接,自此開啟了與以往有別的網絡社會時代;時至2010年左右,基於廣泛分布的傳感技術、大規模數據存儲和通信技術的應用,數據規模呈現指數型上升,地球村由此步入大數據時代;進入新世紀第二個十年的下半段,伴隨著數據處理能力的飛速提高,人工智能對社會開始深度介入,世界正在走向人工智能時代。

整體而論,“人類在進入到21世紀的三個關鍵時間點,相繼出現了三個互相聯係又略有區別的新時代,即網絡社會時代、大數據時代、人工智能時代,三者共同構成了新的社會時代。”

智能時代是以人工智能(Artificial Intelligence,簡稱AI)來命名的,作為研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用係統的一門新的技術科學,旨在了解智能的實質,並生產出一種新的能以人類智能相似方式做出反應的智能機器,其研究領域包括機器人、語音識別、圖像識別、自然語言處理和專家係統等。這一技術科學將改變甚至顛覆人類現存生產工作和交往方式,由此出現一個以新的技術結構支撐新的社會結構的人類新時代。

“這是最好的時代,也是最壞的時代”,英國文學巨匠狄更斯在其名著《雙城記》中的開篇話語,一百多年來不斷地被人引用。在這裏,我們再次以此來描繪人工智能時代的未來圖景。一方麵,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”。

在雲計算、大數據、深度學習算法、人腦芯片的催化下,人工智能模擬和表現了人類的智慧動力,並以高於人類的工作速度、優於人類的工作精度、勝於人類的工作態度,協助人類解決各種各樣的問題,包括危險場合和極端環境的難題,從而形成人類智慧的創造力優勢與人工智能的操作性優勢之間的強強合作。人工智能現已成為全球新一輪科技革命和產業變革的著力點,在人類智慧能力無窮增大的“科學夢”背後,是一片蘊藏無限生機的產業“新藍海”。

社會正在從“互聯網+”向“人工智能+”轉型,舊領域生發出新的產業形態,多領域催生了新興的細分行業,由此創造出巨大的經濟價值和社會財富。在穀歌、臉譜、IBM等領軍企業的帶領下,全球對人工智能的關注度不斷提升。截至2015年,人工智能國際市場的規模為1683億元,預計到2018年將增至2697億元,增長率達到17%。在投資規模方麵,2015年為484億元,預計到2020年,投資總量將達到1190億元。

可以認為,人工智能將從專業性較強的領域逐步拓展到社會生活的各個方麵,人類未來會在“萬物皆互聯、無處不計算”的環境下精準生活。但另一方麵,智能革命也將給我們帶來諸多麻煩,也許我們麵臨著一個社會問題叢生和安全隱患不斷的“最壞時代”。

到目前為止,人工智能已在全球範圍內逐步建立起自己的生態格局,並開始深度介入人類的社會生活。2016年,距離麥卡錫、明斯基、香農等人提出人工智能的概念正好過去60年。在過去的一年,人們看到了許多存在於科幻小說的內容成為現實:人工智能擊敗了人類頂尖棋手,自動駕駛汽車技術日趨成熟,生產線上活躍著“機器人”群體…… “智能時代,未來已來”。人們在為人工智能的強大能力感到驚歎的同時,也激發了對人工智能安全問題的普遍憂慮,人工智能是否成為人類“最後的發明”?我們應該如何看待人工智能的潛在風險?

人工智能對人類社會的潛在風險,聚焦於威脅人類自身安全的可能性,涉及人類基本權益的生命與健康、尊嚴與隱私、安全與自由。科學家認為,人工智能存在著威脅人類存續的可能性,但這種風險不是由於自發的惡意所引起,而應來自人工智能發展過程中出現的不可預測性和潛在的不可逆性。

質言之,人類有智慧能力創造出人工智能,也應有能力和理智來控製人工智能。因此,“最好是期待人類的聰明才智,而非低估它;最好是承認風險的存在,而非否認它。”我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰麵前,增強風險認識能力,提高製度風險意識,通過法律和其他社會規範來預防規避風險,引導規範人工智能技術健康發展,這即是法學家、法律家的任務。

人工智能的首要問題是安全問題,可以置於風險社會理論的研究範疇之中。德國學者貝克認為,人類麵臨著威脅其生存的由社會所製造的風險。現代化正在成為它自身的主題和問題,因此變得具有反思性。風險概念表明人們創造了一種文明,以便使自己的決定將會造成的不可預見的後果具備可預見性,從而控製不可控製的事情。

在風險理論中,人工智能存在著現代性的負麵影響,因此有必要采取風險措施,即預防性行為和因應性的製度。對風險社會問題的法學研究,其重點是法律製度與法律秩序。“法律製度的價值和意義就在於規範和追尋技術上的可以管理的哪怕是可能性很小或影響範圍很小的風險和災難的每一個細節。”而法律秩序則是法律製度實行和實現的效果,即社會生活基本方麵的法律和製度化。現代社會是法治社會,製度風險及風險法律控製是風險社會法學研究理論的基本內涵。

人工智能既是人類文明,亦有社會風險。它或是“技術—經濟”決策導致的風險,也可能是法律所保護的科技文明本身所帶來的風險。換言之,知識問題是現代性風險的根本成因,製度以至法律選擇的實質應是基於風險的決策。正是在這個意義上,貝克提出知識經濟就是“風險經濟”,“風險就是知識中的風險”。具體說來,人工智能時代的社會風險具有以下特點:

一是風險的共生性。風險社會的內在風險,基於技術性風險和製度化風險而形成,且存在共生狀態。人工智能時代是一個高度技術化的社會,科學技術的高度發展既是風險社會的特征,也是風險社會的成因。現代社會中的風險是“被製造出來的風險”,是由我們不斷發展的知識對這個世界的影響所產生的風險。

馬克斯•韋伯形象地指出,人類在不久的將來注定會生活在“技術知識的囚室”。人工智能是知識革命中最具代表性和影響力的時代技術。“對知識體係和技術性知識的信任,是人們在風險社會中獲得和持有本體性安全的基礎和保證。”從“反思的現代性出發,對法律及其保護的先進技術僅為信任是不夠的,人工智能在其發展過程中出現的不可預測性和潛在的不可逆性”,其本身就是一種風險。

同時,人工智能時代的風險含義,還依賴於這樣的一個事實,即文明的決策可能觸發全球化進程中的一係列問題和一連串的風險,直言之,“風險以決策為先決條件”。製度風險可能來自我們的工業製度、科技政策乃至法律規則,或是表現為對新技術無措的“製度缺失”,或是表現為對新技術錯判的“製度失敗”。這些即是規則運轉失靈的風險,其結果形成製度化風險。

二是風險的時代性。在風險社會理論中,風險社會這一概念並不是社會發展類型的某一曆史分期,也不是某個具體社會和國家的現實發展階段,而是對當今人類時代問題的理論概括與形象描述。智能革命是時代的產物,其特點是人類智力與人工智力的結合,智能技術導致智力物質化、社會智能化,最終出現智能社會。

智能社會的形成將是一個長期的過程,或者說是一個時代變遷。以人類思維能力和意識的遷移為表征,以智能機器人的活動為中心,人工智能的發展將會遞進呈現出不同階段。如何應對智能時代中現實世界與理念世界的分離,如何防範病毒、黑客對人工智能產品的侵蝕,這種高科技所引發的高風險會持續整個智能革命的時代過程,它是現實的風險,也是未來潛在的風險。

三是風險的全球性。經濟全球化、科技全球化、信息全球化乃至治理機製的全球化,不可避免地帶來風險的全球性。反全球化主義者認為,全球化正在催生另一種形態的帝國體製:互聯網是“信息帝國主義”,世界貿易組織是“市場帝國主義”,國際貨幣基金組織是“金融帝國主義”,而聯合國是“政治外交的帝國主義”。貝克對此作出了自己的判斷:全世界麵臨著社會認同解體、價值利益衝突、主體組織對立、國家立場對峙、生態環境破壞等不確定因素,這些危機與發展遍布全球,形成對人類生存的新威脅。

可以認為,風險社會是一種“全球風險社會”,風險的空間影響超越了地理邊界和社會文化的邊界。正如吉登斯所言,“在全球化的時代裏,風險的影響被普遍化了。”在人工智能風險的國際應對方麵,2016年聯合國發布《人工智能政策報告》,表達了對人工智能的關注,並針對人工智能技術發展帶來的各種問題,提出了新的思考方式和解決途徑。報告唿籲世界各國加強在人工智能技術研究與開發領域的合作,共同應對智能機器人在就業、倫理道德以及法律層麵帶來的挑戰。

科學技術在人類的文明進步中總是扮演著最活躍、最革命的角色。麵對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴於以下兩點事實:

第一,人工智能技術在造福人類的同時也加大了人類危害自身的可能性,這即是技術的負麵性與風險的不確定性的聯係。

第二,傳統社會治理體係無力解決工業社會過度發展而產生的社會問題,這即是法律的確定性與風險的不確定性的背離。對於現代各國而言,人工智能發展的政策考量,其實是基於風險的製度選擇和法律安排,我們應“通過法律化解風險”,“通過法律吸納風險”,“將風險社會置於法治社會的背景之中”,即對智能革命時代的法律製度乃至整個社會規範進行新的建構。

人工智能技術在挑戰我們的法律

智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體製帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成衝突,凸顯現存法律製度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。就調整人工智能相關社會關係的法律製度而言,人們的擔憂多於期待、疑慮甚於創製。現擇其主要問題分析如下:

1、機器人法律資格的民事主體問題

隨著人工智能技術的快速發展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。未來出現的機器人將擁有生物大腦,甚至可以與人腦的神經元數量相媲美。美國未來學家甚至預測:在本世紀中葉,非生物智能將會10億倍於今天所有人的智慧。

是否賦予機器人以虛擬的“法律主體資格”,在過去的一段時期,美英等國的哲學家、科學家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權利和義務”外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養老金的資金賬號。該項法律動議如獲通過,無疑使得傳統的民事主體製度產生動搖。

機器人是機器還是人,在法理上涉及到主客體二分法的基本問題。在民法體係中,主體(人)與客體(物)是民法總則的兩大基本製度。主體與客體、人與物之間有著嚴格的區別。凡是人以外的不具有精神、意思的生物歸屬於物,是為權利的客體。主客體之間這種不可逾越的鴻溝現在正發生動搖。

從基因時代到智能時代的一個重要變化是,傳統民法的主、客體框架已然打破:人的遺傳基因物質不能簡單作為客體物看待,而沒有生命但具有人工智能的機器人也有可能被賦予法律資格。將機器人視為“人”,賦予其相應的主體資格,難以在現有的民法理論中得到合理的解釋。民法意義上的人,須具有獨立之人格(權利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬製的人(法人)。日本學者北川善太郎認為,在民法上,“法的人格者等於權利能力者”,關於人或法人的規定,“表現了最抽象化層次的抽象的法人格”。

法人格概念的意義在於揭示民事主體的內在統一性和其實質,界定主體與客體的關係。“民事能力概念的意義在於揭示民事主體的差異性,具體刻畫民事主體存在與活動的狀態與特征。”

從法律技術邏輯層麵看,《德國民法典》以權利能力核心概念為中心,進行主體人格的製度設計。在財產權領域,這種構架中的邏輯關係就是“經濟人—權利能力—法律人”。在自然人人格場合,“法律人”的成立是以倫理價值為依據,將倫理價值從人的範疇中抽去之後,即通過權利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場合,由於權利能力扮演“團體人格”的角色,從而形成“團體—權利能力—法律人”的邏輯關係,從而使得法人與同為“法律人”的自然人一樣在某些方麵享有人格利益成為可能。

基於上述分析,可以認為:機器人不是具有生命的自然人,也區別於具有自己獨立意誌並作為自然人集合體的法人,將其作為擬製之人以享有法律主體資格,在法理上尚有斟榷之處。據多數科技專家研究,由於人造機器沒有自身的目的,其工作目的非常特定,且為人類設計者所設計。質言之,機器人生成的目的行為,與人類有目的、有意識的行為性質完全不同;同時,機器人沒有自身積累的知識,其機器知識庫的知識都是特定領域的,並且都是人類輸入的。

在這種情況下,模擬和擴展“人類智能”機器人雖具有相當智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的。換言之,受自然人、自然人集合體——民事主體控製的機器人,尚不足以取得獨立的主體地位。

2、人工智能生成作品的著作權問題

人工智能的實質,是“讓機器從事需要人的智能工作”,包括下棋、解題、從事數學發現、學習新的概念、解釋視覺場景、診斷疾病、推理條件等。基於此,文學、藝術和科學作品的創作也在機器人的智能範圍之內。從計算機到機器人的發展,在作品創作方麵即是一個從閱讀到寫作的跨越。

在機器人時代,某些作品就是人工智能的生成內容。據美國Narrative Science的預測,未來15年將有90%的新聞稿件由機器人完成,大量的美術、音樂等藝術作品也將出自人工智能創作。機器人的寫作方式,采取“信息知識智能”的技術路徑,基於“人機合作”係統而導致內容生成。該行為是否構成法律意義上的“獨創性”或“主觀能動性”,一些國家和地區的法學家試圖作出正麵回應。

有消息稱,日本準備立法保障人工智能的著作權作品,以防止機器人創作中的抄襲之風;歐盟法律事務委員會提出動議,擬賦予機器人以著作權。

關於人工智能的生成作品,著作權法有兩個問題需要解決,即機器人設計的作品是否享有權利?該項權利應歸屬於機器還是創製機器的人?據專家研究,人工智能生成的作品,目前還處於在特定的格式和寫作模板下傳達信息、表達意思的階段,尚不能無限定格式地寫作內容。盡管機器人稿件的表達技巧有限,但仍可以視為著作權法意義上的作品。依世界知識產權組織的權威解釋,作品須具獨創性,即“作品是作者自己的創作,完全不是或基本上不是從另一作品抄襲來的。”

這就是說,人工智能生成之內容,隻要由機器人獨立完成,即構成受著作權保護的作品,至於其用途、價值和社會評價則在所不問。機器人作品享有著作權,但機器人並不能像自然人作者或法人作者那樣去行使權利,換言之,該項著作權應歸屬於機器人的創造人或所有人。

這是因為,機器人是機器而不是“人”,它是依靠數據和算法而完成寫作,該機器人以及其寫作的技術路徑無一不是人類創製。在這種情況下,法律可以通過保護機器人作品以達到保護機器人的創造人和所有人的目的。具言之,可參照著作權法關於職務作品或雇傭作品的規定,由創製機器的“人”而不是機器人去享有和行使權利。

3、智能係統致人損害的侵權法問題

智能型“新一代機器人”,與傳統的執行重複任務的工業機器人不同,它擁有相對的自主權和更高的人工智能水平,且將廣泛而深入地參與人類社會的生活。“智能型機器人”的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。

機器人致人損害有兩種情形:

一是侵權人對智能係統進行非法控製而造成的損害。例如,黑客、病毒等人為因素侵入互聯網,進而控製人類家庭的兒童看護機器人、助老機器人、護士機器人或其他智能係統,由此導致危及人類的後果。在這種情況下,發動黑客攻擊或傳輸病毒的侵權人應該承擔法律責任自不待言,這些不是本文研究的主要話題;

二是智能係統自身的產品瑕疵而造成的損害。據報道,早在上個世紀80年代,日本即發生過工業機器在作業現場將工人置入機器壓死的事件;2007年,美國食品藥品監督管理局收到200多份投訴,指控醫療外科手術機器人對病人造成燒傷、切割傷以及感染,其中包含89例導致病患死亡。

上述致人損害的事由,究竟是機器人創製者的技術漏洞,抑或智能機器管理人的不當使用?甚至可能是人工智能係統超越原控製方案的“自身行為”?在這種情況下,就必須對機器人的過錯行為原因進行分析,以查找侵權主體構成並分擔賠償責任。

關於智能係統致人損害責任的認定,有兩種責任方式可供選擇:

一是基於行為人過失所產生的產品責任。在侵權責任法中,產品責任是指產品生產者、銷售者因生產、銷售缺陷產品致使他人遭受人身損害、財產損失或有致使他人遭受人身、財產損害之虞而應承擔的特殊侵權責任。致人損害的產品,必須存在缺陷,它包括製造缺陷、設計缺陷、警示缺陷、跟蹤觀察缺陷。

上述情形符合智能係統致人損害責任的一般特征。2016年,聯合國教科文組織會同世界科學知識與技術倫理委員會發布報告指出,由於機器人一般被視為通常意義上的科技產品,機器人以及機器人技術造成的損害,可由民法中產品責任的相關規定進行調整。從產品責任的認定條件來看,機器人造成的損害可歸類於機器人製造者和銷售者的過失,包括產品製造的過失、產品設計的過失、產品警告的過失以及沒有盡到合理的注意義務。

二是基於技術中立原則所產生的替代責任。關於技術產品致人損害,技術中立原則可提供責任規避。所謂技術中立原則,是指任何技術本身原則上都不產生責任承擔,但是一項特定技術的主要商業用途是用來從事侵權或其他違法行為的,那麼該項技術即不適用“技術中立”原則。在這種情況下,適用替代責任較為適宜。替代責任又稱為轉承責任,最初出現在代理關係與雇傭關係中,即被代理人對代理人實施的,得到被代理人“授權”或“批準”的侵權行為承擔責任;雇主對其雇員在“雇傭期間”實施的侵權行為承擔責任,概稱為“為他人侵權行為承擔責任”。

在替代責任情形中,機器人本無瑕疵,符合技術中立原則要求,但機器人的所有人或使用人,或不盡善良管理人之義務,或放任機器人的侵權行為,則不能以技術中立原則免除責任。

4.人類隱私保護的人格權問題

網絡空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這裏,人類實現了與肉體分離的“數字化生存”,擁有了“數字化人格”。所謂數字化人格就是“通過個人信息的收集和處理勾畫一個在網絡空間的個人形象”——即憑借數字化信息而建立起來的人格。

個人信息包括了當事人不願他人知道或他人不便知道的隱私信息,主要類別有:個人登錄的身份和健康狀況、個人的信用和財產狀況、電子郵箱地址、網絡活動蹤跡等。在信息化社會,這些零散的和廣泛的個人信息有可能被收集,並進行數據處理,從而拚合成所謂數字化人格——在很大程度上是被迫建立的人格,個人毫不知情的人格。在今天和未來,當移動互聯網、大數據和機器智能三者疊加後,我們生活在一個“無隱私的社會”。

麵對大數據對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權的保護,有三點舉措可供采用:

一是增強自我保護意識。在當下的移動互聯和今後的萬物聯網的時代,我們本身就是隱私的泄密者:智能手機安裝了太多而不甚使用的APP,社交網絡講了太多而不適宜公開發表的言論,都可能造成隱私泄露;還有各種電子產品,從帶有GPS的照相機到與WIFE相連的智能電器,都精細地記錄私人的行蹤和生活信息。在人工智能時代,挖掘個人隱私是由機器完成的,因此保護隱私,須從自己做起,對智能電器有防範之心;

二是強化企業保護用戶隱私的責任。企業須負有保護用戶隱私的意願和責任,“這將是用戶隱私是否得到有效保護的關鍵”。在當下,用戶數據日益聚集在大型互聯網或數據處理的企業手中,對其進行保護個人隱私的責任約束就顯得非常重要。在歐盟和美國,根據政府要求,也出於用戶主張,服務條款應特別聲明從用戶獲得的數據屬於用戶本人,如對個人數據有不當處置,應承擔責任。這不僅是合同規定的違約責任,也是違反法律的侵權責任。

三是加強網絡、電訊隱私保護的專門立法。隱私權的保護應以民法保護為基礎,明確隱私權的權利屬性、權能內容、保護方式等;同時以專門法律保護為補充,規定特定領域的特定主體隱私保護的原則和辦法。

例如,美國1974年製定《聯邦隱私權法》,是為隱私權保護的基本法,後又於1986年通過《聯邦電子通訊隱私法案》,2000年出台《兒童網上隱私保護法》,此外還頒布了《公民網絡隱私權保護暫行條例》、《個人隱私與國家信息基礎設施》等法律。

歐盟則在1997年通過《電信事業個人數據處理及隱私保護指令》之後,又先後製定了《網上個人隱私權保護的一般原則》、《信息公路上個人數據收集處理過程中個人權利保護指南》等相關法規。隱私權的保護,是信息時代特別是人工智能時代的法律難題。智能革命不斷深入發展的過程,亦是隱私安全風險增大與法律保護強化的過程。

5.智能駕駛係統的交通法問題

人工智能在交通領域的重要應用是網聯自動駕駛。智能駕駛通過導航係統、傳感器係統、智能感知算法、車輛控製係統等智能技術,實現了“人工智能+無人駕駛”,顛覆了以往的人車關係、車車關係。為推動智能駕駛產業的發展,美、德、日等國都在探索,甚至出台了有關交通責任分配的法律規範和安全檢測市場準入的監管政策。

無人駕駛汽車可能帶來的法律問題,主要有:

一是法律規製對象的轉變。無人駕駛意味著交通領域的準入資格,不再是駕駛人的駕駛技術,而是無人駕駛汽車的智能化水平。換言之,隨著無人駕駛中駕駛人概念的消失,法律規製的對象不再是車輛的駕駛人員,而將是智能駕駛係統的開發者、製造者;

二是法律責任體係的重構。以過錯責任為基礎而建立的“風險分配”責任體係,在未來的交通法規中將不複存在。對於道路交通事故的認定,其歸責事由隻有結果的“對與錯”,而無主觀上的“故意”或“過失”。

三是交通監管重心的變化。以交通安全為目標,以往交通管理部門監管的重點是汽車裝置的安全性能和駕駛人安全駕駛技能;而在智能駕駛中,避險保障和精確駕駛的軟硬件體係,是道路交通檢測、準入的重點。

6.機器“工人群體”的勞動法問題

人工智能技術發展的基本麵向,是對人-機關係的改變。智能機器人的大規模應用,一方麵推動了社會生產力的發展,大大提高了生產效率;另一方麵也帶來了社會結構的變化,使得人與機器人的關係成為社會生活的重要方麵。以保護勞動者利益為宗旨的勞動法,麵臨著前所未有的兩個難題:

一是傳統勞動法的調整功能消減。據牛津大學的調研報告,未來將有1000萬非技術工種被機器人取代,其中包括文秘、工人、中介、司機等一大批崗位。報告特別指出,目前軟件工程師所做的工作將會被智能機器人所代替,即創造者被其創造的技術產品所代替。這些都對現有勞動者的權利帶來衝擊。大批勞動者離開傳統崗位,其權益救濟更多是尋求社會保障法,那麼“勞動法是否麵臨消亡的命運?”

二是未來勞動法將麵臨新的調整對象。機器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機器人權利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就成為勞動立法問題。

歐盟法律事務委員會動議,主張人工智能具有“工人”身份,並賦予其勞動權等“特定權利與義務”;韓國政府起草了《機器人倫理憲章》,其要點包括:保證人類能夠控製機器人、保護機器人獲得的數據、禁止人類違法使用機器人、防止人類虐待機器人,應該認識到:智能機器人本質是為機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重。可以預見,上述倫理規範將成為未來立法的組成部分。

法律製度總是滯後的,但關於法律問題思考應該是前瞻的。麵向智能革命時代,我們應在認識和分析現行法律困境的基礎上,探索與科學文明相伴而生的製度文明,創製出有利於人工智能健康、有序發展的社會規範體係。

麵向未來時代的製度構成:

法律、政策與倫理

法律製度的發展與變革,每一過程的路徑選擇和規則設計,其法律思維一般都是客觀事實分析與主觀價值判斷的綜合。就法律製度建設而言,如果總是基於技術及其效應的充分顯現,以此形成以技術事實為基礎的社會規範,那麼法律製度的滯後現象將會十分嚴重,最終導致技術法律對技術“匡正”的失效和無力。

“我們所體驗到的那種無能為力並不是個人失敗的標誌,而是反映出我們的製度無能為力。我們需要重構我們曾經有過的這些製度,或者建立新的製度。”麵向未來時代的製度構成,應以人工智能的技術發展與規製為主題,形成包含法律規則、政策規定和倫理規範的社會治理體係。關於理念、規範、體製與機製的製度設計,筆者擬提出如下構想:

1.以安全為核心的多元價值目標

人工智能法律的價值分析,源於法律理想與現實,應然與實然的對立。人工智能時代的法價值即是人類法律理想價值觀的追求,是價值這一哲學範疇的法律化表現。法律的理想價值總是高於法律現實價值,可以為法律製度的演進提供目標指引和持續動力。

人工智能法律既具有一般法價值的構成要素,又有著其特殊法的價值內容,從而形成自身的法價值體係。其中,“正義是社會製度的首要價值”,也是作為一般法的普適價值,其蘊含的人格正義、分配正義、秩序正義構成了人工智能法律構建的正當性基礎。在最高法價值指引之下,人工智能法律還存在著專門法的特別價值,這主要是安全、創新和和諧。

安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩定的維護。對此,法哲學家雷加森斯·西克斯言道:“如果法律秩序不代表一種安全的秩序,那麼就不是一種法律” 。安全價值是許多法律部門共同追求的目標,且通過不同的製度或調整方法來實現。例如,刑法、行政法通過刑事責任或行政責任方式來實現社會秩序安全,民法通過侵權法來保護交易安全和財產秩序。人工智能作為未來時代技術尚在深入發展之中,但在當下已引發人們對其安全問題的普遍擔憂。

人工智能超越人類智能的可能性,人工智能產生危害後果的嚴重性,以及人工智能技術本身內在的不確定性,這些因素足以構成法律以及其他規範防止風險的必要性。關於風險規製的安全規範,包括人工智能產品的倫理規範、人工智能技術的應用規範、人工智能安全的監測規範等,都是相關法律製度設計和安排需要考量的問題。

創新是人工智能法律的價值靈魂。在特定的時代背景下,特定的法律製度會包含若幹不同的價值項,而且其各自的價值側重點也有著不同。當代經濟的發展著重依靠知識和信息的生產、分配和利用,創新業已成為知識經濟時代的主要特征。麵向人工智能革命,創新不僅反映了人與自然的關係,而且反映了人與人的關係、個人與社會的關係,成為一個具有普遍意義的關係範疇。創新價值體現在人工智能發展政策製定與立法活動之中,其主要製度設計是:

(1)謀化國家發展戰略。在整體性、全局性的政策層麵,對人工智能技術和相關社會變革作出相應的戰略部署;

(2)製定產業促進與監管的政策法律。在立法和政策層麵,推進智能駕駛係統、智能機器人、精確醫療、語言識別、人腦芯片等核心技術的研發和應用,同時明確準入規範,製定安全標準,完善配套設施,營造健康、有序的監管環境;

(3)完善知識產權創新激勵機製。通過權利保護、權利交易和權利限製等製度,促進技術創新和新興產業發展。總得說來,國家通過戰略指引、法律規範和政策安排,將創新這一行為上升為“規劃理性”的法價值,體現了人在價值發現中的能動性幹預和控製。

和諧是人工智能時代的終極價值追求。所謂和諧發展,是一種配合適當、協調有序的理想動態,這是一種涵蓋周延的目標係統,包括人的和諧、社會的和諧、自然的和諧,以及人與社會、自然的和平共存與進步。和諧價值實現的理想狀態,即是人工智能社會的良性健康和有序。

在智能機器人的發展過程中,和諧價值具有引導性功能。為保證人類社會的和諧穩定,對人工智能產品進行倫理設計、限製人工智能技術應用範圍、控製人工智能的自主程度和智能水平等,都應以和諧價值作為指引方向和評價準則。

2.以倫理為先導的社會規範調控體係

人工智能時代的文明,需要相應的行為規範作為社會關係的調整器。就整體而言,文明要求社會對自身內部錯綜複雜的關係進行自覺的協調,以不斷完善自身的組織和管理,達到各種社會關係的有序與和諧。

從人類文明創始到現今人工智能時代開啟,社會行為規範已然成為一種製度體係。社會規範調控體係或係統,是指在一定的國家、地區、領域內存在的,由一定的社會經濟關係所決定的社會規範而構成的相互聯係、相互製約的統一體。在社會規範體係中,法律與道德作為兩種重要的調整手段,從不同方麵、以不同方式、通過不同機製對社會生活的不同領域發揮不同的影響和作用。

對於人工智能社會關係的調整,倫理規範具有一種先導性的作用。這是因為法律規範基於現實生活而生成,且立法過程繁瑣,因而總是處於滯後境地;而倫理規範可以先行和預設,對已變化或可能變化的社會關係作出反映。

在發達國家,對人工智能的倫理研究早於立法研究。近年來,歐洲機器人研究網絡(EURON)發布《機器人倫理學路線圖》,韓國工商能源部頒布《機器人倫理憲章》,日本組織專家團隊起草《下一代機器人安全問題指引方針》,美國國家科學基金會和美國航天局設立專項基金對“機器人倫理學”進行研究。

此外,一些行業組織、公司企業也在倫理規範方麵強化人工智能專家的專業責任。例如日本人工智能學會內部設置了倫理委員會,穀歌設立了“人工智能研究倫理委員會”,旨在強調科研人員的社會責任,並對合理研發人工智能提供指導。

概言之,倫理規範的調整功能非常獨到且為重要,例如:對智能機器人預設道德準則,為人工智能產品本身進行倫理指引;規定人工智能技術研發及應用的道德標準,對科研人員進行倫理約束。上述倫理規範,為後續法治建設提供了重要法源,即在一定時候,倫理規範亦可轉化為法律規範,實現道德的法律化。

3.以技術和法律為主導的風險控製機製

人工智能技術不僅是高技術,而且是高技術的核心,可稱之為高技術核。智能技術的“核爆炸”,既對社會經濟帶來變革性的影響,也會產生技術性風險,即“人類在利用技術時違背技術自身規律而產生的社會風險”。人工智能時代的風險防範和治理,可采取技術控製與法律控製的綜合治理機製。

法律控製是風險治理機製的重要手段。立法者必須重視控製風險功能的法治化。例如,專利法具有激勵科技創新的製度功能,其授權客體的擴充及其權益保護,即是激勵人工智能發展機製的法律表現。與此同時,專利法也要注重權利客體的排除領域,以及禁止權利濫用,限製權利行使等製度規則的適用,限製和排除人工智能的潛在危害。此外,還應輔之於相關科技法律、法規,對人工智能的研發、使用和傳播建立限製機製、禁止機製以及懲戒機製。

技術控製是風險治理機製的重要措施。技術規製表現為法律規範、政策規定和倫理規則等。風險社會理論指引下的技術規則有以下特點:風險規避的主要路徑,是事先預防而不是事後補救(即從技術研究開始規製,以預防技術產生的負麵效應或副作用);風險規避的基礎範式,是從技術研發到應用過程的責任製度(包括社會道義責任、科學倫理責任和法責任);風險規避的重要措施,是奉行技術民主原則(包括技術信息適度公開和公眾參與、公眾決策)。

防範人工智能的技術性風險,不僅涉及強化法律規製的傳統製度改造,而且要求建立以社會監管為重要內容的政策體係,同時形成以全麵理性(包括社會理性和科學理性)為基本內涵的風險控製機製。

中國正在走向人工智能時代。世界新一輪科學革命、產業變革與我國轉變經濟發展方式形成曆史性交匯。對人工智能的發展和規製進行製度安排,是時代新潮流,也是國際大趨勢,更是本土創新發展的內在要求。筆者認為,在製度構建方麵,目前有三項重點任務:

一是盡快出台國家發展戰略,以此作為人工智能政策體係的支撐。從國際層麵看,美、德、英、日等國加快人工智能頂層戰略設計,從國家層麵統籌人工智能發展。在我國,《“十三五”國家科技創新規劃》和《“十三五”國家戰略性新興產業發展規劃》,對人工智能發展做出重要表述。但總體而言,我國人工智能政策還沒有上升到國家戰略高度,人工智能的戰略地位凸顯不足,人工智能發展的統籌協調部門未予明確,政府、社會以及企業的責任分工尚未厘清。

國家發展戰略應是關於人工智能問題的整體性謀略和全局性安排,它是一個涉及戰略目標、戰略任務、戰略措施的政策製度體係。中國必須高度關注智能革命發展前景以及引發的相關社會變革,盡快作出相應的戰略政策部署;

二是及時製定《機器人倫理章程》,以此作為人工智能研發、應用的道德基礎。在一些發達國家,對人工智能的倫理研究早於法律研究,諸如《機器人倫理憲章》、《機器人倫理學路線圖》等,都是將安全評估和風險防範作為人工智能倫理規範的重要內容。

我國似可組織政治家、科學家、企業家、法學家參加的專家小組,編寫機器人倫理章程,構建人工智能倫理規範,其要義包括:設計倫理框架,為機器人預設道德準則;強化科技專家的社會責任,為人工智能研發、應用提供道德指引;引導公眾接納人工智能,為調整人—機關係規定道德模式;

三是適時進行機器人專門立法,以此作為人工智能法律的基本規範。人工智能技術對傳統法律製度帶來巨大挑戰,以至現有的法律理念與規則在“高技術核”麵前幾乎無所適從。在這種情況下,法律製度需要創新變革自不待言,而尋求一個調整人類與智能機器相互關係的專門法將是一個最終的選擇。

對此,歐盟的立法行動最快。據報道,歐洲議會已正式向委員會提出議案,擬製定“人類與人工智能/機器人互動的全麵規則”,這或將是首個涉及機器人的立法草案。我國在人工智能領域發展相對滯後,但相關立法活動應未雨綢繆,組建專家團隊對機器人專門法律開展研究,其重點包括:人工智能的法律地位、人工智能生成內容的權利歸屬、人工智能損害後果的責任分擔、人工智能風險的法律控製等。

結語

未來時代已經到來。這是一個創新的時代,創新不僅反映了人與自然的關係,而且反映了人與人的關係、個人與社會的關係,已成為一個具有普遍意義的關係範疇。人們在生產力、生產關係和上層建築所有領域中進行的創造性活動,即技術進步和製度變革都是一種創新過程。

智能革命引發的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創新,我們需要跟進理論創新和製度創新。法學家和法律改革家們需要秉持理性主義精神,去發現和探索一個理想的法律製度體係。我們有理由相信,科學技術的智慧之光與法律製度的理性之光,將在人工智能時代交相輝映。

中國法律評論

最後更新:2017-08-23 10:47:28

  上一篇:go 人工智能驅動一站式全場景交互,華住會引領酒店業未來
  下一篇:go 人工智能時代,天氣如何預報