291
機器人
觀點·人工智能對傳統刑法的挑戰
信息社會、大數據時代正在全麵鋪開,網絡社會加速形成,開始深度影響人類社會生產生活。而今,基於信息網絡技術形成的人工智能,已處在下一個互聯網時代的風口浪尖,對人類生產生活與交往方式產生顛覆性影響。
社會形態的大變革,使法律製度作為人類社會文明的產物,麵臨人工智能的極大挑戰。刑法是社會控製的手段,正在被純粹“物化”,成為“智能時代”與“智能人”統治與駕馭“人”的製度工具,侵蝕傳統刑法體係中“人”的主體性。同時,具有超人類屬性的人工智能隱藏不可估量的重大製度性風險,甚至直接危及人類的自身安全與主體地位。現行刑法製度的社會基礎、存在意義、任務安排、功能設定等內容,可能正在經曆一場裂變,逐漸取而代之的是“人工智能社會與刑法”。為此,當代刑法應作出敏銳的理性回答。
人工智能與傳統刑法的裂變場域
人工智能時代絕非“紙上談兵”。智能量刑、智能刑法運行體係等個別性的刑法蛻變跡象相繼出現,初步揭開了智能時代下當代刑法何去何從的麵紗。
(一)智能量刑係統的探索前景。
電腦量刑一度備受關注,我國不少地方司法機關也在試驗電腦量刑係統。在人工智能時代,借助大數據流量與智能算法,“用鼠標點擊出自動化判決”,正在超越法律經驗與人腦智力之間的技術壁壘,成為解決量刑規範化的技術嚐試,是電腦量刑的智能升級版。
2016年10月,歐洲科學家打造出人工智能“法官”,可以輔助量刑。2017年7月,我國“國雙”檢察院線產品推出定罪量刑輔助係統。根據給定資料、結合法律法規和既往案例,自動推送定罪和量刑建議。人工智能為量刑規範化注入“智能”力量,“智能化”甚至可能成為量刑公正的新評價標準。
網絡“智能犯罪”形態仍在增量,智能量刑係統的市場需求也將擴充,“智能量刑”時代或將到來。但難題在於:如何借助智能技術,將人類語言、思維、經驗等法律知識,遵循人類社會信賴的公正標準與要求,通過自動解碼,將網絡語言轉換成可以人類識別的電子信息。否則,“智能量刑”背後的“技術暗箱”操作與“流水線”生產方式,隱藏巨大的不確定性風險。
(二)智能刑法運作體係的孕生。
得益於司法數據公開等得天獨厚的優勢,“人工智能+法律”的應用井噴不止。在法律檢索、法律文件審核、法律谘詢等方麵,人工智能催生的“法律科技”正攪動法律服務市場,其中,智能刑法運作體係已走在前端。2016年,世界上首位人工智能律師(“協助展開法律研究的人工智能律師”)ROSS Intelligence橫空出世。我國也正在探索智能(智慧)檢務、開發智能律師係統、設立智能法院、開發智能刑事辦案係統。
當前,人工智能係統+刑法應用係統作為輔助手段,不僅可提高效率與準確度,也可通過屏蔽人情、關係等案外壓力使司法判決更符合邏輯與法條本意。但其難點在於:
(1)計算機語言與人類自然語言的無縫對接,如果計算機語言無法轉變成人類自然語言的形式,刑法的智能化意義不大。
(2)智能係統如何按照人類的思維與情感等要求定罪量刑,而非單純按照係統設定或通過學習得出標準答案,真正實現定罪量刑的智能化。
(3)對人工智能技術進行必要且有效的監管,使人工智能技術的應用具有可視化與可知性,避免“技術暴力”。
(4)對人工智能係統控製的數據、信息等進行保密,規範數據的采集、提供、存儲、使用等行為。
(5)明確智能法律體係的“法律職業人資質”問題,如是否需參加法律職業資格考試、法律職業等級認定、司法責任製等。
(三)無人駕駛與交通事故犯罪的胎變。
無人駕駛技術(汽車)是當前最成熟的應用領域。這對傳統交通事故犯罪的影響有:一是“人”已不實質參與駕駛行為,“人”作為駕駛主體虛化。“人”退居二線,使刑事責任主體無從可尋,“無行為則無犯罪”原則失靈。二是基於“允許的風險”而作出的風險分配責任體係,在智能駕駛環境下失靈。畢竟查證“無人駕駛汽車”的主觀罪過是技術上的偽命題。一律追究智能服務提供者的刑事責任,是將技術作為“替罪羊”的倒退,是過度依賴替代責任的偏執之舉。
在智能駕駛時代,交通肇事罪的行為主體由“人”全部變成潛在的“被害主體”,導致傳統的肇事者消失,一並殃及刑事歸責與製裁環節,但完全轉嫁到智能技術或智能汽車提供商顯失公平。同時,“人”脫離具體的駕駛行為,“危險駕駛人”在一定範圍已不存在,而完全是智能機器的行為,危險駕駛罪的立法基礎可能隨之動搖。單純作為允許的風險對待,雖符合“技術中立”的導向,卻縱容過高的刑法風險,忽視被害人的利益保護。為此,應明確智能汽車的使用者、所有者、提供者、製造者的責任歸屬與分配問題,而不應由某方單獨承擔替代責任。
(四)智能醫療與醫療事故犯罪的虛化。
在智能醫療技術背景下,對醫療事故罪這一典型的業務過失犯罪而言:嚴重不負責任的醫療主體可能不是具體的醫務人員,而是智能技術或智能機器人,責任主體出現模煳化;智能醫療技術內在的不確定風險是新變量,嚴重不負責任與醫療事故之間因果關係的認定更難,運用傳統的因果關係可能失效。與此同時,醫療係統加速高度智能化,使醫療人員的主導地位相對下降,智能醫療行為的可替代性增強,法定醫療主體的身份專屬性迅速下降,直接衝擊非法行醫罪的立法基礎。是否取得特定醫療職業資格的主體身份專屬性明顯淡化,智能醫療業務過失作為犯罪的處罰條件升高,“智能人”的醫療行為與醫療過失事故之間的證明難度遞增,使非法行醫罪規製難以有效介入智能醫療業務過失行為。
(五)智能創作與著作權犯罪的調試。
據報道,人工智能機器人已經可以自主創作作品,包括譜寫流行歌曲、撰寫小說、電影劇本、繪畫和生成詩篇和散文等。這使“人”是法定著作權主體的常識遭遇質疑。對於智能機器人作品的版權問題。有觀點認為,智能機器人遠未達到“人”的創作能力,無法取得著作權,可以參照職務作品或雇用作品的規定,由創製機器人的“人”享有和行使。另有觀點認為,人工智能生成的內容仍是應用算法、規則和模板的結果,不能體現創作者的獨特性,不能被認定為作品。
智能機器人可以獨立創作,使權利主體、權利形態、權利使用方式等發生變動,衝擊傳統著作權犯罪的立法基礎。比如,被害人可能是智能機器人,犯罪對象包括智能作品,侵犯著作權的犯罪行為構造迥異,智能作品被侵害的危害樣態及評價標準趨於電子化。這將倒逼著作權犯罪構成要件要素的網絡化調整。
人工智能與刑事歸責原則
在人工智能社會中,人與人類社會極可能麵臨重大挑戰。“人對自己的行為負責”“人在社會有機體中的責任”“人應當承擔刑事責任”等社會倫理觀或將修正。智能機器人如何兌現“自我擔責”、何者可以對“智能人”依法歸責、智能社會的“歸責意義”等更無從談起。人工智能引發傳統倫理觀的變更,對刑法的滲透與侵蝕也將進一步動搖刑事歸責體係。
在實踐中,智能機器人引發的危險行為,既包括智能係統的技術危害,也包括智能係統作為工具時被非法利用或濫用引發的危害,更包括作為獨立主體的內在風險。對於刑事歸責問題,有以下思路值得考量:
(1)技術中立原則。人工智能技術具有相對的中立性,不宜過度苛責技術的危險性。應對利用或濫用技術或“智能人”直接歸責。
(2)基於產品責任的刑法替代責任。機器人仍可以視為是科技產品,借鑒民法中的產品責任,對網絡製造者或服務提供者進行歸責,是“替代責任”。
(3)基於監督義務的業務過失責任。在過渡期人工智能仍由“人”發明與使用,製造者與使用者負有相應的監督義務,網絡監督過失的刑事歸責模式有其用武之地。
(4)基於獨立主體的罪過責任。“智能人”作為未來獨立的新型刑法主體,應對其罪過承擔相應的責任。(檢察日報 北京師範大學刑事法律科學研究院博士後 孫道萃)
最後更新:2017-10-22 16:14:44