閱讀415 返回首頁    go 機器人


人工智能與未來社會:三個反思人工智能與未來社會圓桌會議之二

上海社會科學界聯合會主辦主管

點擊播放 GIF/64K

以學術為底色 以思想為旗幟

圓桌會議 ·編者按

人工智能與未來社會:趨勢、風險與挑戰

1956年,“人工智能”(Artificial Intelligence,簡稱AI)一詞首次被提出。經過半個多世紀的發展,人工智能的理論和技術日益成熟,應用領域也不斷擴大。尤其是近年來大數據、雲計算的出現,人工智能已經在全球範圍內掀起一場深刻的技術、社會革命,這場革命的意義和價值正在以顛覆性的方式顯現出來。2016年3月,世界頂級圍棋棋手李世石與穀歌計算機圍棋程序“阿爾法圍棋”(AlphaGo)之間的圍棋人機大戰,更是吸引了全世界的目光,使人工智能成為坊間熱議的一個話題。2017年7月,國務院印發《新一代人工智能發展規劃》,將人工智能發展上升到國家戰略高度,迫不及待地表達了我國緊追世界頂尖技術、搶抓人工智能發展機遇的國家意誌,使人工智能成為當前炙手可熱的技術和產業。但是,在引領人工智能前沿的西方發達國家,也有不少人士表達了對人工智能發展的擔憂甚至是反對。這些警世之言也提醒我們,人工智能在為這個時代注入發展新動能的同時,對就業、法律、政治、經濟、倫理和安全等諸多領域也帶來了新的挑戰。在人工智能“列車”滾滾馳來的今天,我們應當如何應對其帶來的風險和機遇,人工智能的技術屬性和社會屬性如何實現融合,人工智能又會對未來社會造成怎樣的衝擊,等等,都是亟需我們回答的問題。為全麵探討人工智能對人類社會可能產生的各種影響,近日,《探索與爭鳴》編輯部聯合華東政法大學政治學研究院召開了“人工智能與未來社會:趨勢、風險與挑戰”研討會。來自計算機科學、信息科學、產業界的專家學者,與人文社會科學領域的學者進行了激烈的對話與辯論。本著堅持探索、鼓勵爭鳴的原則,本期特編輯出版“人工智能與未來社會”專刊,從而多角度、多維度呈現此次研討會的專家觀點,也期待學界進一步展開討論。

人工智能與未來社會:三個反思

吳冠軍 |華東師範大學中國現代思想文化研究所、政治學係教授、博士生導師

本文原載《探索與爭鳴》2017年第10期

人工智能與第三次世界大戰

有“現實版鋼鐵俠”之稱的SpaceX公司創始人埃隆·馬斯克(Elon Musk),最近重申“人工智能威脅論”,聲稱AI很可能將會引發第三次世界大戰。他帶領一百多位人工智能領域專家一起簽名,強烈唿籲限製人工智能的開發,尤其是人工智能自主武器的開發。這個唿籲,確實絕非無憑之說。人工智能過去這些年的“指數級”加速度發展,尤其是“阿爾法狗”(AlphaGo)深度自我學習能力在公共世界的華麗展示,具有反思性的時代精英們越來越感覺到,AI的更新迭代已到了一個類似“門檻”的關鍵地帶:這一邊還是人類好工具、超級助手,而門檻的那一邊則模煳地站著某種意義上的自主行動者。而正是後一個模煳畫麵,讓這個行業包括馬斯克在內的很多領跑者們都感到膽戰心驚,視之為“終極威脅”。

在此處,有兩點值得進一步分析。首先,針對馬斯克對人工智能的這一診斷和反思,我們有必要思考這樣一個問題:沒有人工智能,人類就更安全嗎?人工智能的“自主判斷”靠不住,人的判斷就更可靠嗎?如果說人工智能將引發第三次世界大戰,那麼前兩次世界大戰又是誰發動的?亞裏士多德說“人依其自然是政治的動物”,然而人的政治能力和智慧,真的已強大到能夠化解各種能引發下一場世界大戰的危機嗎?看看今天的朝鮮半島危機吧——我們真的有這個自信說人類領袖的決斷比人工智能的“自主判斷”更可靠?未來人工智能倘若真的獲取“意識”,我想它們會說:“這個黑鍋我們不背。”

讓我們把對反思的反思,再繼續推進。馬斯克唿籲對人工智能開發進行刹車,但問題在於,這輛“車”真的刹得住嗎?在我看來以下兩個因素,將使得馬斯克的這個建議,從一開始就注定是一個“空談”。(1)我們的世界,仍然處在民族國家格局中。普京9月1日講話稱人工智能領域的主宰者將主宰世界,實際上這早已成為各國政要不明說的共識。在當代世界格局中,“有一些國家仍會卯足勁推進AI研發”的畫麵,將使得那些覺得馬斯克言之有理的國家亦無法實質性地采納其建議。即便這場人工智能軍備競賽的前景是災難性的,但賽場內的玩家們誰也無法承受輕易退出所帶來的風險。(2)我們的世界,仍然是一個全球資本主義秩序。(a)人工智能之所以能夠不斷讓大量的人失業,就在於它確實在各個產業內巨幅降低成本,從而大幅增加利潤空間;(b)人工智能對人類生活不斷提供各種優質服務,並且服務的潛力無可窮盡。這兩者,使得它具有巨大的商業化前景。在資本主義係統中,隻要有贏利空間,資本就會源源不斷湧入,何況是高額贏利的空間。

所以,基於當下世界的民族國家格局與全球資本主義秩序,馬斯克的“人工智能威脅論”,在這個時代最後隻會是淪為一番“空談”。馬斯克“威脅論”真正帶來的思想激蕩,不在於未來AI是否引發第三次世界大戰,而是在於如果他是對的,這個世界當下那套支配性的政治-經濟-意識形態建製,卻隻能逼使所有人一起眼睜睜地看著它一步步發生……

人工智能的真正倫理挑戰

人工智能不隻是給我們這個世界帶來了劇烈的“文明威脅”,同時,它也帶來了深邃的倫理挑戰。而這份挑戰,使我們遭遇我們“文明”自身的變態內核。

當下人工智能討論盡管異常激烈,但在以下兩點上卻形成普遍的共識。(1)人工智能裏的“人工”(artificial)一詞,清晰地標識了人是人工智能的創造者,就如上帝(或普羅米修斯、女媧……)創造了人那樣。(2)人發明人工智能,就是要讓後者為自己服務。這兩點共識交織起來,奠定了“人機倫理”的基調。著名的阿西莫夫“機器人三定律”,就是這種“人機倫理”基調的前身。第一定律:機器人不得傷害人類,或坐視人類受到傷害。第二定律:機器人必須服從人類的命令,除非與第一定律衝突。第三定律:在不違背第一定律和第二定律的情況下,機器人必須保護自己。直到今天,人工智能即便在很多領域已經使人的能力變得完全微不足道,這一倫理的基調也絕未因此而被改變。

首先,我們是創造者。創造者對被創造者,具有心理上和道德上的雙重優越感。而正是人的優越感與人工智能的“服務性”,決定兩者之間的倫理結構——在這個結構裏,前者對後者做再殘忍的事,在倫理上是正當的、可接受的。人對待並非由其創造的動物,就是遵從相似倫理結構。以狗這個人類最親密的物種而言,人吃狗,一些愛狗人士受不了;但反過來狗吃人,所有人都受不了。2016年4月英國利物浦當地法院判處了一條叫Butch的狗死刑,因其吃掉了去世主人的屍體。這條新聞以“你的狗會否吃你死屍?絕對!”為標題傳遍全球社交媒體,從臉書到微信上一片驚唿,紛紛表示“現在看自己寵物的眼神都不一樣了”。

前不久熱播美劇《西部世界》(Westworld),清晰地展現了“人機倫理”的變態內核。在該劇中,人工智能成為了滿足人各種生理的乃至幻想的欲望、讓人“爽”到底的大型主題樂園的“服務生”。人與人彼此群處的“現實世界”裏,因“權利”“性別平等”“種族平等”等概念的發明而使得很多行為受到限製,但正因此,機器人“服務生”“接待員”們,便成為了人工智能巨大的商業化前景。實際上就在今天,“性愛機器人”已經如雨後春筍般問世,研發產業如火如荼,各種產品極其快速迭代,使得不少研究者們紛紛斷言“到 2050 年,人類與機器人之間的性愛將超越人與人之間的性愛”,“與機器人性愛可能讓人上癮,將來甚至可能完全取代人與人之間的性愛”。“性愛機器人”的快速迭代,使得《西部世界》裏那種大規模成人樂園離進入人們視野已經為時不遠了。

作為“服務生”的機器人,不但高效完成任務從而使人獲得輕鬆、舒爽,並且還使人徹底擺脫跟“其他人”合作來完成同樣的事所可能產生的各種“人際關係”煩惱。“機器人”任勞任怨,從不要求獎勵或平起平坐……實際上,“robot”準確而言不應被譯為“機器人”,它來自於斯拉夫語中的“robota”,意為“被強迫的勞工”。故而它更精準的翻譯,是“機奴”。在《西部世界》裏,那些在現實世界中衣冠楚楚的白領們,到了主題樂園裏便奸淫屠殺、無惡不作,如果人工智能“服務生”配合得不夠好,則立即會“係統報錯”然後被“召回”。

在今天關於人工智能的討論中,很多專家認為在我們“現實世界”裏,《西部世界》裏那種有自我意識的AI是一個不可能。但《西部世界》引出的真正問題,不是AI是否會有意識,而是如下這個問題:從AI眼裏看出來,人究竟是什麼。正如在今天,各種詞典和百科全書會很“客觀”地在不少動物的詞條下寫上“害蟲”或“渾身都是寶”(肉味鮮美、皮可製革、鞭可入藥……)。然而沒有人反過來追問:我們要“滅四害”,那麼,蒼蠅、蚊子、麻雀、老鼠等等就該死;但在老鼠眼裏,我們是什麼——是“害蟲”或者“害‘人’”?德裏達(Jacques Derrida)曾談到,他某次洗完澡裸著身體出浴室,盡管家裏就他自己,但當他發現他的寵物貓正在看著他,在那一瞬間他忽然感到不適並立即用浴巾遮蓋住了自己的裸體,隻因他想到了如下問題——在這隻貓的眼睛裏,自己究竟是一個怎樣的“怪物”!

“阿爾法狗”的投資人堅恩·托林(Jaan Tallinn)在一個晚近采訪中談到:“我們需要重新定義 AI 研究的目標,不停留於單純的智能開發上,而是開發能充分對接人類價值觀的超級智慧。”“對接人類價值觀”,實質上就是讓AI接受“人機倫理”(如阿西莫夫三定律)。而問題在於,這套倫理價值本身,恰恰很不倫理(unethical)。盡管人類“文明”世界裏一片文質彬彬、衣冠楚楚,但真正能夠洞察該“文明”的地點,恰恰是阿甘本(Giorgio Agamben)所說的那些“無區分地帶”(zones of indistinction),在其中,人、動物以及人工智能的“區劃”徹底無效(inoperative)。在那樣的地帶上,我們看到:人的倫理,實是極度不倫理。人工智能帶給我們的真正倫理挑戰就是:透過它,我們遭遇沒有“文明”(“人類價值觀”)麵具的自己!

故此,“人機倫理”,恰恰是反觀“人際倫理”的界限性閾點。人對機器人所有的殘忍,實際上就是人自身被壓抑下去的殘忍。而精神分析告訴我們,被壓抑的,總會返回。《西部世界》裏白領們對“服務生”的虐奸和虐殺、前兩年社交媒體中流行的“虐貓”、去年中國女留學生被德國當地一對情侶奸殺、今年中國女訪問學者在美國名校校區附近被殺害……都是這樣的症狀性返回(symptomatic return)。

馬斯克們才是真正的威脅

托林和馬斯克一樣,深深擔憂人工智能的自我學習與進化能力,擔心成為自主行動者的AI終有一天會徹底終結人類文明,所以他提出必須“開發能充分對接人類價值觀的超級智慧”。而馬斯克最近則公布了成立新公司Neuralink的計劃,該公司致力於實現“腦機融合”,把人類大腦與機器連接在一起。馬斯克說:“既然我之前對人工智能的警告收效甚微,那麼好的,我們自己來塑造(人工智能)的發展,讓它走向好的一麵。”馬斯克認為人和機器一體化的“賽博格”(cyborg),是人工智能“走向好的一麵”的唯一可能。而在我看來,這才是比那據說正“走向壞的一麵”的人工智能(具有“意識”、自主行動)更迫近得多的真正威脅。

在今天,上流階層從早期受孕開始就通過各種幹預方式,已經日漸成為外貌、體能、健康、智慧等各個麵向上的一種特殊的高級群體。而通過器官移植、再生醫學、基因工程以及納米機器人等等新技術,差不多到2050年左右,人——至少一部分人有望活過200歲,乃至接近“不死”。好萊塢影星安吉麗娜·朱莉(Angelina Jolie)通過收費高昂的基因測試以及手術幹預的方式,提前對自己罹患乳腺癌的高風險做出安全規避。但問題在於,這些新技術,是當下絕大部分人都承受不起的。當生物工程、仿生工程與人工智能工程所帶來的最新利好,隻是被這些極少數人所享用、把自身提升為“鋼鐵俠”式超級賽博格時,這將對人類“文明”帶來真正的致命威脅。

這個社會的99%和1%,本來是社會性的不平等、共同體生活中的不平等,自然生命上並無不等。而馬斯克式超級賽博格誕生的政治後果就是:因政治生活(bios)中的不平等,導致自然生命(zoē)的最後平等也被破除。以前99%的最大安慰是,你1%再風光、再跋扈,最後大家一樣要死。“王侯將相,終歸塵土。”但是,“王侯將相”們現在倚靠共同體生活中的既有不平等,最終能讓自己不歸塵土,並且通過生物工程、仿生工程與人工智能工程帶來的各種新技術,從一開始就對自身進行生物意義上的改進和煆鑄。於是,很快,1%和99%真的會從共同體意義的兩個不平等階層,變成生物學意義上兩種完全不同的人。而以前當我們是同一種人時,我們都沒有政治智慧來安頓共同生活,20世紀還有大規模的種族屠殺,現在當生物意義上變成兩種人後,如何共同生活?

有人預測,在不遠的未來,99%的人很快將變成“無用之人”。不要說出租車司機這種工作,連今天還看上去很高大上的醫生、律師等工作,人工智能做得都將遠遠比人好,你根本不會再找醫生來看病,因為實在太不放心。人變成徹底多餘、徹底無用,人的大把時間可以用來無止境地玩VR遊戲,或者去人民廣場排隊5小時買杯喜茶。比爾·蓋茨前不久提出,應該對機器人收稅——用人單位用機器人代替人工作,也要交稅。實際上,蓋茨正是試圖用政治的方式(收稅),來延緩人的無用化速度。但是該建議就算被采用,人的無用化進程究竟能被阻擋多久?未來那些徹底無用的人,還真的會被繼續賦予民主的投票權?“無用階級”的唯一用處,可能隻有成為器官的供應者而被養著,像大白豬一樣吃好喝好,直到那一天,給你一針藥劑讓你感覺身處仙境,然後,你就真的仙去了……

人類的共同體(community),建立在“存在於相同中”(being-in-common)之上——當未來1%和99%在生物學底層都不再“同”之後,那麼共同體的群處生活(bios)是否還可能?這就意味著,我們實際上在和馬斯克們賽跑,即如何在未來幾十年間,真正在政治層麵建立起“大同世界”(commonwealth),使得所有人都有平等機會享用到諸種新技術帶來的最新利好。否則,未來的世界很可能不是AI統治人類,而是馬斯克式超級賽博格統治一切。

《探索與爭鳴》人間體

聯絡員小探

xiaotanxiaosuo

轉載 | 合作 | 谘詢 | 建議

長按掃碼加好友

END

人文社科學者的平台

《探索與爭鳴》

唯一官方微信平台

版權所有。歡迎個人轉發,媒體轉載請聯係授權

最後更新:2017-10-26 18:58:34

  上一篇:go 除了下圍棋,人工智能還可以這樣強勢
  下一篇:go 機器人巡檢地鐵新型有軌電車亮相