閱讀708 返回首頁    go 技術社區[雲棲]


智能哲學:在AI前沿上人類倫理學的挑戰與應戰


0?wx_fmt=jpeg


一、AI的倫理學問題成為了時代的焦點


今天的AI已經把過去一些認為是聳人聽聞的話題變成了無法回避的嚴肅研究,不僅傳統的科學理論與技術實踐以及兩者的關係正在重構,而且在“科學”與“人文”兩大分別的領域之間產生了挑戰性的融合問題,麵對AI的咄咄逼人的發展,一線科學家們不得不做出權宜的回答,由“生命的未來研究所”(Future of Life Institute,FLI) 牽頭製定的“阿西洛馬人工智能原則” (Asilomar AI Principles),就可以看作是一線科學家的一個倫理學的應急綱領。


另一方麵,傳統的哲學、人類學、倫理學等卻無法迅速進入到一線前沿,而迫不急待的工業、經濟、金融、社會領域所激發的狂潮已經上升到一種國家意識,各國政府開始把AI的發展和工業創造力等作為全球競爭的戰略問題提出並付諸行動。


與西方國家對AI的研發不同的方麵是,中國文化重視人和人性的中心地位,這使我們能在“中西文化” 和“科學與人文”的相對性中處於一種特殊的文化地位,我們能否在這樣兩種“兩種文化”的交織中不失機緣?我們想在此提出這個問題,麵對悠關人類自身利益的人、機倫理關係,期望在一種大格局下研究 AI 平台的倫理學問題。


AI和Robot的發展對人類自身的地位和價值產生了影響,對此擔憂由來已久,稍前一些,多家基金、各種研究機構都在關注AI倫理問題,其中由一些著名的人工智能問題專家、教授以誌願者的身份創立的“生命的未來研究所”,於2015 年1月11日發表了一封公開信:Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter(公開信:為穩健性和利益性的人工智能而進行研究),提出“我們的人工智能必須隻做我們要它們做的”(our AI systems must do what we want them to do),即“有益的人工智能”(Beneficial AI)的口號。同樣對這樣的問題的高度關注,此前已經引起了業內外的廣泛注意和嚴肅討論並有所行動,如:IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems (IEEE 關於人工智能及自主係統的倫理考慮的全球倡議), AAAI 2008-09 Presidential Panel on Long-Term AI Futures( AAAI 2008-09 人工智能未來總統委員會),Partnership on Artificial Intelligence to Benefit People and Society(人工智能合作惠及人與社會) ,AI100 ( 人工智能百年研究計劃 ),Ethics and Governance of Artificial Intelligence Fund( 人工智能倫理與治理基金會),Allen Institute for Artificial Intelligence (艾倫人工智能研究所 )等等。


0?wx_fmt=jpeg


而更早的時候,在實體機器人出現之前的上世紀四十年代,就有了科幻小說家阿西莫夫(Isaac Asimov)著名的“機器人學三大法則”和以後的多種補充原則:


LawⅠ:A Robot may not injure a human being or, through inaction, allow a human being to come to harm.

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;


LawⅡ: A robot must obey 0rders given it by human beings except where such orders would conflict with the first law.

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;Law 


Ⅲ: A robot must protect its own existence as long as such protection does not conflict with the first or second law.

第三定律:機器人在不違反第一、第二定律情況下要盡可能保護自己的生存。


這三條法則實際是把機器對人的服從作為機器的設計和製造的原則,並沒考慮具有“自主能力”、甚或“自我意識”等超級人工智能的問題,而現在那種“高度自主的人工智能係統”(Highly autonomous AI systems)或被稱為“強人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲門了,人類如何應對?


在這個意義上,現在可以說,任何一家人工智能研究和開發的大公司、大企業或學術組織所進行的最尖端、最前沿的研究,實際上都是本質地相關人工智能的倫理問題。


二、“阿西洛馬人工智能原則”的核心思想:Beneficial AI


2017年1月在美國加州Asilomar召開的“阿西洛馬會議”(the 2017 Asilomar conference),包括844名人工智能和機器人領域的專家們聯合簽署了稱之為西洛馬人工智能原則(Asilomar AI Principles),唿籲全世界的人工智能領域工作遵守這些原則,共同保障人類未來的利益和安全。“阿西洛馬人工智能原則”核心思想是Beneficial AI,我們解讀為 “為了人和人類的AI”。


在這些複雜和緊迫的形勢麵前,人類能夠做出響應的隻有基於人類曆史中形成的基本倫理信念和長期的倫理學研究成果。麵對人工智能迅速發展的現實所麵臨的倫理學上的迫切問題, 非專業倫理學的一線科學家做出的一個權宜的回答:“阿西洛馬人工智能原則”,他們出於科學家傳統的職業道德,基於人類的良知和對人類未來的理性關切,把人工智能直接參與的研究者、機構的倫理學問題作為主要對象,把Beneficial AI這個倫理學理念分散地表現在“阿西洛馬人工智能原則”23條中,其中具有綱領性的條目如下:


第1項“研究目的”確定了人工智能研究的目的是創造服務於人、並為所控的AI和Robot這個原則,這個原則是人機之間的基本倫理保證,而這個保證最先由研究和開發人員的倫理意識體現和在研發中遵守;所以第16項“人類控製”表達了一種深切的期望。


第2項“研究經費”中對人類資源、意誌、價值體係的前提地位的保守和保護。


第10項“價值歸屬”、第11項“人類價值觀”、進一步提高為機器對人的價值的歸屬是高級人工智能的設計原則第9項“責任”則將這種人機倫理關係作為責任明確地加在研究人員身上;第12項“個人隱私”和第13項“自由和隱私”體現了人的尊嚴。


第6項“安全性”是為研究工作設定的機器對人的保障的條件,第7項“故障透明性”、第8項“司法透明性”,是對人工智能現有研究、開發的工作製度和法製方麵的倫理要求。


第14項“分享利益”、第15項“共同繁榮”第17項“非顛覆”、第18項“人工智能軍備競賽”,這些是人類社會的倫理原則在人工智能研究領域中的體現。


上述的這些內容都是基於人和人性理解的人、機倫理關係,“阿西洛馬人工智能原

則”最後一條23條“共公利益”甚至包括了“超級智能”(super intelligence),但這仍是在作為全人類整體利益的考慮,就是為了人類價值和利益的人工智能(beneficial AI),這種把維護人的倫理地位這個前提放在人工智能領域不同層次上多次予以申明,都是基於人的道德和人類尊嚴的樸素性,但機器或人工智能這個在發展中產生的不同於“自然”又不同於人類自身的東西究竟有何種本質、有何種倫理地位,仍是一個不確定的問題。


0?wx_fmt=jpeg


“阿西洛馬人工智能原則”是世界劇烈變化中古老的人類倫理學精神的覺醒,是劇烈變化和世界中人為捍衛人的地位和尊嚴的一種努力。“阿西洛馬人工智能原則”實際上是所有關注AI和Robot的發展所產生的對人類難以估量的影響的長期觀察和思考的一次集中性表達,在更深遠的意義上,可以看作是科學家所代表的知識群體和人類的良知對人類自身的性質、地位和價值的一次嚴肅思考。


三、AI平台上的倫理學基礎理論問題


人工智能的倫理學中最根本的問題是人、機的倫理學關係,而這種人、機倫理關係又取決於對“人”的意義、價值和地位的理解,這是一個最古老、最深刻的哲學問題,實際上這也是以倫理學問題成為東西方哲學思想中最根本的問題。哲學學科和眾多的知識學科,特別是近現代以來的科學技術的發展使哲學、倫理學不斷地分化、消散於名目繁多的學科理論之中,當現代人幾乎淡忘了這些古老的智慧時,人工智能所麵臨的巨大預期、困惑甚至是恐懼迫使我們把人工智能的倫理學問題推到一個最重要的位置上。


在人工智能研究最前沿領域中,最困惑人的問題是:有沒有高於人的智能的“人工智能”,所謂的 “通用人工智能”、“強人工智能”、“高級人工智能”或“超級人工智能”,甚至於人與超級智能融合新的“超人”(尼采)、“變成神的這種動物”(尤瓦爾•赫拉利)……? “阿西洛馬人工智能原則”第19項“能力警惕”中承認、但認為這是一個不能確定的問題,把這個問題歸結為“不確定性”隻是一種機智的回避,就是說,這個問題的實質是:在人與人工智能的關係之中,存不存在這種基於人類基本倫理信念的人、機之間的倫理關係?因此,一切似乎又回到最古老的哲學和倫理學問題,我們的倫理學基本信念和知識是什麼?


迄今為止,人工智能的實體建構主要是建立在物理定律的基礎上,物理實體不存在服不服從倫理學原則的問題,但建立在物理實體上的人工智能與基於生命實體上的人的智能有何本質不同,這一直是人類知識理論中最困難的問題,人們一直在等待回答,但今天,人工智能的倫理學問題已經迫使科學家做出一個權宜的回答,以應對作為科學技術研究活動的人工智能作研發中的基本倫理學問題,“阿西洛馬人工智能原則”隻是一個應急的解決,哲學、倫理學、人類學等專門理論必須直接研究人工智能的一般性質,人、機之間的倫理關係,以及人與人的智能、情感、意識等意義非常深刻的問題,把人、機之間的技術關係提升到倫理學的理論高度上。


0?wx_fmt=jpeg


這對於哲學和倫理學是一個嚴重的挑戰,在某種意義上,這才是人工智能高速發展所帶來的對人的地位和未來的挑戰的真實戰場。


人類曆史上最初的哲學家也是科學家,古代希臘人將科學、哲學、宗教、倫理問題混合在一起討論,希臘化時代以後,全球性宗教興起,宗教具有倫理學本質性,曆史上社會現實中的倫理學問題主要是由宗教承擔的,但宗教不是回答了人的倫理學問題,隻是把人的終極本質的問題讓渡給神,宗教以從世俗的人向神性的人格過渡為最終目的,因此宗教最終還是不能取代以世俗世界為目的倫理學。


人類知識的積累和進步以及科學技術的發展使現代人享受到前所未有的物質上的“幸福”,但知識和技術本身成為了一種既具有客觀性又具有主觀性意義的事務,波普曾以“世界3”這個概念來描述這個特殊性的對象,但“世界3”理論並沒有得到有力的支持和繼續深入展開,其困難在於,“世界3”理論隻是一個概念體係而不在傳統哲學的體係框架中,波普也沒有提供一個與傳統哲學中的“主、 客”關係不同的三方關係的研究模式,所以人與知識、工具、技術的關係問題並沒有得到深入、係統性的研究。


今天人工智能的發展已經全部覆蓋並深深滲入到人類社會的所有事物,已經直接觸及到人類一直認為是獨享的智能、情感、意識,人工智能與人的智能關係已經變成對人的價值和意義的挑戰,人工智能最前沿的研究已成為倫理學的理論前沿,這樣的問題不是個人、集體、機構、企業甚或個別國家所麵對和能應對的,奧巴馬接受“連線”雜誌的聯合采訪時就指出,公共基金在AI開發中扮演角色是必不可缺少。


在今天的研究者、團體、機構、企業已經不斷地調整、組合、重組不同的研發平台,甚至國家級研發平台出現的時候,人工智能的倫理學理論和實踐實際上成為了AI研發平台上最重要的公共研究課題,認識到把人工智能的倫理學研究作為平台的前沿理論進行建設,是平台建設最基礎和最基本的任務之一。


四、前沿的倫理學問題


老子的“道德經”和亞裏士多德的“尼各馬可倫理學”(Ethika Nikomachea)代表了人類對自身的存在狀態和社會生存方式的深刻的思想,在這種樸素的人性意識中,人總是作為世界中的唯一的自我意識者的無意識者而被意識到的,雖然“人類中心主義”特別是狹隘的“強人類中心主義”遭到過廣泛的討論或批判,但“人是萬物的尺度”(普羅泰戈拉)、“人為自然立法”(康德)這種基於人的價值和地位的統一的樸素觀念始終是人和人類的尊嚴,但這種古老的信念今天已麵臨危機。


0?wx_fmt=jpeg


如果說實證科學研究世界“是什麼”和“如何是”,那麼,倫理學就研究社會“如何是”和人“應該如何是”,這兩門學問一直是“科學”和“人文”兩大分別領域(所謂的“兩種文化”)中的最具代表性的學科,但從科學研究領域中產生和迅勐發展的計算機和人工智能、機器人所具有性質已經不可阻擋地成為了對人類倫理學的核心理念的侵蝕,機器“具有”人的智能,或機器“具有”人的性質,似乎不是人的空想,如果說“人”的尊嚴和地位被人類社會自身的發展所動搖,今天一點也不過份,正是這種倫理學的意義上,AI和Robot的倫理學問題成為了今天所有人關注的焦點。


倫理學的核心概念是人的社會行為,倫理行為是就實踐的道德哲學,AI和Robot的倫理學關切實際上具有超越這種人類倫理學本質的深刻層次:


(一)、人(研究、開發者)如何將傳統的人的道德和倫理信念貫徹在自己的所研究、製造、開發的AI和Robot中,使服從甚或具有人的倫理原則;


(二)、人是否有這種超越能力做到這一點?


(三)、AI和Robot在支配它們的物理規律之上有沒有或有何種倫理規範?更有甚者,比如,所謂的“科幻模式”的超人工智能(Artificial Super-intelligence ASI),可以問這種倫理問題嗎?


在這些複雜、甚至是難以想象的情況下,我們還不得不進一步追問:有沒有機器的道德(moral)不道德(immoral)或非道德(amoral)問題?這是人類的問題,還是AI和Robot的問題或是“我們”共同的問題?按照這種方式設想下去,或許有一天機器可能會有模擬人的甚或他們自己的不同於人類自我性質,甚至有他們的思想家、哲學家,它們是類人的人類或者反過來說,我們隻是人類類中的子類?


在我們沒有超越自身作為這種“人類類”甚或是“類生命”的主體之前,我們無法也不能實質性地設想這些問題,現在最迫切的是,我們是否有賦予AI和Robot以道德心靈的能力?就象上帝造人時也無法使人具有免除罪惡的天性,我們能有這種似乎是超越上帝的能力的能力嗎?


0?wx_fmt=jpeg


我們隻能在我們已有的人類的倫理學的理念的基石上進行探索,在這個意義上,我們隻有人類的倫理學, 我們的所有關注、思考和行動都是人類的倫理學。從這樣的意義上看,Beneficial AI不是機器的道德和倫理,而隻是人在研究、發展AI和Robot中的倫理原則,人能否將人的倫理原則賦予機器是一個不確定的問題,今天我們能做的就是堅守我們人類的倫理底線,所以“阿西洛馬人工智能原則”是人的道德唿喚,是人性的憂患意識,在這個意義上“阿西洛馬人工智能原則”是人類尊嚴的體現。


五、全球視野下的人工智能倫理學研究


“阿西洛馬人工智能原則”把參與的研究者、機構的倫理學問題作為主要項目,而把人、機關係的倫理學本質問題作為一個不確定性的問題予以回避,一方麵等待在人工智能發展中這些本質性問題不斷的暴露和逐步解決,另一方麵期待哲學、倫理學的現代複興和更新視野的關於科學、技術理論和人類、世界的未來的理論的融合發展。


人類不確定性的未來總是揮之不去的陰影,從基督教“世界末日”的預言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮再到今天“人類的終結”的猜測,似乎是越來越大的震動的腳步聲,我們的文化和文明能夠重生新的超越的倫理學嗎?


笛卡兒說:“我思故(則)我在”,這實際上是基於近代以來的科學理性的懷疑、批判精神對世界和人自己的一種科學態度,即二元論之一的主觀世界對包括自己在內的客觀世界的一種主觀態度而不是一種科學解釋,而且這種主觀的態度也並不等於“我思”與“我在”二者之間的因果、邏輯、規律等關係,即使有無數的物理、生理、心理等相關方麵的研究成果,也無法解釋自身的客觀性是如何成為意識的主體性的,因此西方文化不能沒有超驗一元的上帝。在這些之外,除了思想或意識本身,無法外在地去觀察“思想”,我們隻能直覺到或意識到“思想”,去思想“思想”。我們雖然沒有類似的難於理解的關於不可觀察的“量子態”的量子力學,但中國哲學或中國思想一直堅持,“思想”對主體的內在(內“心”)性反思超越性才是無元無級(無極)的“思想”的本質,隻有這種在這個本質上,我們才能進入到理解人的“智能”的道路。所以,即使有高級甚或越級的人工智能,也必須在“思想”這樣的自行越超的“行為”中才有在時間中“存在”的意義,中國文化滋育的中國思想本身就有這種內在的時間性的本質。


正是由於中國傳統文化具有人和人性的本質性,所以我們可以在繼承中、西方傳統學說和理論的基礎上直接把人工智能的倫理學問題作為本質的倫理學問題來對待,本質的倫理學問題是人的本質問題,而人是本質的不確定性,不確定性的相對性是確定性,對不確定性問題的研究可以放在不同的層次上展開,在從確定性到確定性的各種同層次的複雜關係模式的研究與整合中,我們才有希望得到確實的進展和進步。

原文發布時間為:2014-04-22

本文來自雲棲社區合作夥伴“大數據文摘”,了解相關信息可以關注“BigDataDigest”微信公眾號

最後更新:2017-05-17 11:33:02

  上一篇:go  C#的類型係統
  下一篇:go  一個很棒的介紹軟件測試的blog