閱讀570 返回首頁    go 機器人


人工智能浪潮下的法律倫理問題“人工智能與未來社會:趨勢、風險與挑戰”學術研討會之十二

上海社會科學界聯合會主辦主管

點擊播放 GIF/64K

以學術為底色 以思想為旗幟

人工智能浪潮下的法律倫理問題

惠誌斌 | 上海社會科學互聯網研究中心執行主任

人工智能是全新的技術嗎?顯然不是。早在20世紀中葉,以圖靈、維納、麥卡錫、香農等為代表的一批計算機科學巨擘們就開始了對人工智能的科學探索。1955年,麥卡錫、香農等作為共同發起人邀請一批學者在美國達特茅斯學院討論人工智能,也正是在本次會議上麥卡錫說服大家使用人工智能這一術語。那之後不久,最早的一批人工智能學者和技術開始湧現,達特茅斯會議也因此被廣泛認為是人工智能科學研究誕生的標誌。人工智能科學雖然一直備受關注,但其發展並非一帆風順。

21世紀第二個十年開始,隨著移動互聯網、雲計算、大數據、物聯網等技術的相繼普及,人工智能發展的技術生態初步形成,各個領域的智能化商業應用開始普及。美國等發達國家全麵啟動人工智能的戰略布局,意在主導全球人工智能科技革命的前沿。2016年,從穀歌公司人工智能團隊開發的AlphaGo軟件完勝世界棋王李世石,到穀歌等公司的無人駕駛商用引發美歐交通規則改革,以及IBM、微軟、Facebook人工智能平台的相繼推出,都在宣告人工智能從科學實驗階段跨入商業應用階段,人工智能發展進入爆發的臨界點。可以預見的是,伴隨產業的巨資投入和政府的大力支持,人工智能技術必將在各國、各領域得到快速應用。未來數十年,人類的生產、生活也必將因為人工智能而重新塑造。

然而,在對人工智能發展無限憧憬的同時,我們必須認識到人工智能技術可能是有史以來唯一沒有提供人類多次試錯機會的科技革命,必須認真審視人工智能產生的極為複雜的經濟社會影響,必須前瞻性地研究人工智能的技術倫理和價值導向等問題,以此來推動政府、企業和公眾共同科學規劃人工智能的發展軌跡,共同守護人類的美好未來。

不同於其他科技革命一般隻涉及法律和經濟問題的爭論,人工智能的發展始終伴隨著倫理層麵的爭議和反思。近年來,隨著人工智能技術的成熟和商業應用,關於人工智能倫理問題的研究持續升溫,內涵和外延都不不斷擴大。2016年《麻省理工科技評論》評選的最佳圖書就包括數本以人工智能倫理為主題的著作,例如《數學武器:大數據如何加劇不平等、威脅民主》和《發明倫理:科技和人類未來》。2017年1月,麻省理工學院媒體實驗室與哈佛大學伯克曼•克萊因互聯網與社會研究中心合作推出一項預計耗資2700萬美元的人工智能倫理研究計劃。

總的來說,人工智能倫理學作為一個新興的研究領域,正在產生越來越多的開放式問題,人工智能失控、技術性失業、算法公平、感情道德、價值一致性等人工智能倫理問題,正受到廣泛關注。

1.人工智能失控

能否保持對有朝一日遠比人類更“聰明”的人工智能係統的控製,是人工智能倫理研究中最古老但又是終極性的問題。控製/失控問題之所以重要,是因為人類可能沒有反複試錯的機會。目前,科技界將人工智能的發展進程劃分為弱人工智能階段、強人工智能階段、超人工智能階段。國外諸多專家認為,超人工智能時代很快將會來臨,這種人工智能形態能夠提高自身的各種能力,包括替自身設計一種改進版本,隨後那種更聰明的人工智能版本將會做同樣的事情,這種遞歸式的自我改善可能導致最終的“智能爆炸”。 對此,《未來簡史》一書的作者、以色列曆史學家Y.N.赫拉利(Yuval N. Harari)提出了一種赫胥黎式的反烏托邦主義,指出人類可能的三大方向:人類將失去他們的經濟和軍事用途,經濟係統將不再有價值;對係統來說,人類整體將具有價值,但個體將沒有價值;然而,係統將在一些個體身上發現價值,但他們將成為一個超人的新物種,而不是普通大眾,這裏所說的“係統”指的是生物科學和信息技術以當前極快速度發展下去產生的新的社會形態。

2.算法偏差和機器歧視

基於海量數據和強大算法的人工智能係統正在影響甚至替代個體行為決策,在人工智能取代個體決策的趨勢下,算法偏差和機器歧視並不鮮見且影響重大。例如,穀歌的圖片軟件就曾錯將黑人標記為“大猩猩”,Flickr的自動標記係統也曾錯將黑人的照片標記為“猿猴”或者“動物”。穀歌的算法歧視問題早已引起人們注意,相關研究表明,在穀歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現暗示具有犯罪曆史的廣告;在穀歌的廣告服務中,男性比女性看到更多高薪招聘廣告。

3.人工智能引發的技術性失業

技術性失業是人工智能麵臨的經濟倫理的重大挑戰。2017年1月,麥肯錫全球研究院發布《未來產業:自動化、就業與生產力》報告指出,在800多種職業2000多項工作活動中,將近60%的職業或行業中有至少30%的工作內容在技術上可以自動化,但能夠全麵自動化的職業或行業不超過5%,在人類與機器共事的情況下,自動化每年可以將全球生產力提升0.8%至1.4%。該報告同時指出,自動化技術帶動的大規模勞動力轉型將持續幾十年,類似的勞動力轉型曆史上早有先例,例如發達國家整個20世紀的農業勞動力大幅減少,但並未出現長期的、大規模的失業,這是因為技術發展同時衍生出之前不曾預見的新工作形態。

4.人機情感倫理

2015年秋季,英國BBC和美國CNBC等媒體報道了一家美國企業製造出女性形象“性愛機器人”的消息,該公司負責人認為該產品可以幫助喪偶者解決生活煩惱,這台真人大小的“全球首款性愛機器人”以6995美元的價格銷售,據悉該機器人預設了“交際型”、“服從型”等多種性格模式,但該產品卻引起了廣泛的倫理討論。對此,英國德蒙福特大學機器人倫理研究員K.理查德森(Kathleen Richardson)指出,過度專注機器人將“損害人類之間的情感共鳴能力”,並在互聯網上發出警示性聲明,向全世界募集支持者。

作為決策輔助者甚至直接決策者,人工智能在金融、教育、就業、醫療、信賴、刑事執法等諸多領域開始扮演顯著角色,人工智能能夠確保公平嗎,是否會給當事人帶來損害……?來自技術界和科學界各方麵的傑出人士對於人工智能的各種可能的負麵影響已經表達出了擔憂。馬斯克、蓋茨、沃茲尼亞克、霍金等都對這些潛在危險發出了警告。數據科學家歐尼爾在其著作《數學武器:大數據如何加劇不平等、威脅民主》中將造成歧視、個體損害等不利後果的人工智能稱為“殺傷性數學武器”,因其不透明性、規模效應及損害性而應當引起足夠關注。關注人工智能的倫理問題並在研發設計過程中考慮這些問題正成為一個趨勢。

如今,我們欣喜地看到,包括聯合國、美國、英國、IEEE等都已經開始關注人工智能的倫理問題,穀歌DeepMind和Lucid AI團隊都已經設立了倫理審查委員會。未來,人工智能的透明性、算法公平、監管和責任、信任等將進入更廣泛的公眾討論視野,相關標準和規範將進一步出台。新出現的諸如倫理、責任、安全、隱私等問題,需要在跨學科的基礎上,以及在政府、企業、民間機構、公眾密切合作的基礎上解決,以此來削弱人工智能的不利影響,創建人類與智能機器彼此信任的未來。正如DeepMind創始人哈撒比斯所言:“人工智能是一個偉大的技術,它本身都是中性的,可能被用於好的地方或者壞的地方,所以我們必須確保它的使用者是負責任的。”

(本文為惠誌斌在2017年8月28日由上海市社聯《探索與爭鳴》雜誌社和華東政法大學政治學研究院共同主辦的“人工智能與未來社會:趨勢、風險與挑戰”學術研討會上的主題發言,經本人整理,不代表本公眾號的立場。)

《探索與爭鳴》人間體

聯絡員小探

xiaotanxiaosuo

轉載 | 合作 | 谘詢 | 建議

長按掃碼加好友

END

人文社科學者的平台

《探索與爭鳴》

唯一官方微信平台

版權所有。歡迎個人轉發,媒體轉載請聯係授權

最後更新:2017-10-08 02:49:12

  上一篇:go 人工智能:炒菜不用人,無人快餐來了!時代在變,你還不做改變嗎?附:逃跑機器人!
  下一篇:go Airdoc副總裁張京雷:人工智能在醫學影像中的應用