閱讀755 返回首頁    go 機器人


趙汀陽:人工智能會“終結”人類曆史嗎?

無論是在宗教文本,還是哲學家、文學家們的描述中,都一次次構想過諸如“世界末日”的圖景——區別隻是在於前麵是否有一個天堂等著,還是曆史徹底終結。它們讓我們想到,人類活在這個世界上,真像是一次次驚心動魄的曆險。

到現在為止,政治、社會、經濟、科技、文化的風險無處不在,但並沒有根本性的危險,想象中的很多事情並沒有發生。原因可能是,有自由意誌的人類能夠在總體上控製沒有自由意誌的一切,無論它們是權力、自由市場、貧富懸殊,還是核彈、金融係統、移動互聯網。

不過人工智能的那個世界日益臨近,一個從未有過的、跟人類的“存在”直接相關的問題逼問而來。

7月20日,日本軟銀集團董事長孫正義發表了一篇主題演講《信息革命指引下的新世界》,構想了30年後的圖景:“物聯網將使全球網絡化,智能機器人將滲透我們的日常生活,人工智能(AI)將超越人類智力。”資本顯然樂於推動科技在這方麵的突飛勐進。

就在最近,因為《人類簡史》《未來簡史》兩本書而在全球曝得大名的以色列曆史學家尤瓦爾·赫拉利來華演講,也談到了人工智能:“21世紀的人類將逐漸失去在上萬年的演變過程當中獲得的力量,這些力量將逐步從人類讓渡給人工智能。”

在他眼中,人工智能改變了自生命出現以來最重要的原則,我們的生命將根據計算機智能設計,脫離原先有機化合物的限製,進入一個無機的世界。

著名哲學家、中國社會科學院哲學研究所研究員趙汀陽在他的新書《四種分叉》中也探討了這個跟哲學、生物、科技有關的前沿問題。他把人工智能問題放在了最根本的人類思維和人的存在論角度進行深刻考察。

科技和商業可以給我們描述一個充滿迷幻的世界,但哲學有助於我們看到這個世界是和不是什麼。

本刊記者對趙汀陽進行專訪。

趙汀陽

人工智能的“短未來”和“遠未來”

記者:你的新書《四種分叉》講到了跟人的存在有關的時間、意識、道德、智能這四種“分叉”。

前三種分叉在我看來是講“人為什麼會變成現在這個樣子”,而智能的分叉則完全不一樣,不是又會變成什麼樣子的問題,而是還能不能存在的問題。用你的話說:“人工智能一開始是個知識論問題,在不遠的將來將要升級為一個涉及終極命運的存在論問題,一個或許將危及人類自身存在的問題。”

尤瓦爾·赫拉利也在《未來簡史》中擔心人類的消亡。既然一切終都可以還原為科技,那一個新的物種——人工智能——當然比人類厲害得多。

不過我還是有點疑惑:為什麼不是人類像過去那樣借助科技力量提升了自己,而是反過來危及了自身的存在呢?

趙汀陽:人工智能真的危險嗎?科學家們的看法也多有分歧,原因在於,無人能夠算準未來,無論科學技術本身將會發展到什麼程度,還是會導致什麼社會後果,都難以預料。很顯然,必然性可以算計,可能性卻難以算計。

另外,科學家所預測的人工智能未來時段也不一致,有些科學家討論的是可見的“短未來”,比如說二三十年後的人工智能狀況,這種預見的準確度就比較高,也有些科學家討論的是百年或更遙遠的“遠未來”,就僅僅是可能性,未必為真。這兩種情況要分別談論。

假定限於“短未來”去看人工智能,估計應該屬於你說的“科技提升了人類自己”的樂觀情況。

事實上我們已經處於初級人工智能的時代,互聯網、電腦、手機、工業機器人、無人機、各種自動識別儀器、無店員超市等等,都已經是現實,很快會成為常態的產品還有家用機器人、醫療機器人、農用機器人、戰鬥機器人、各種特殊用途的機器人、自動駕駛汽車和火車,以及各種智能服務,這些都屬於“短未來”的人工智能。

所有屬於專門用途的有限人工智能即使尚未成為現實,也已經不能引起人們的驚奇,過度的預告和宣傳已經讓人們失去了好奇心和感受能力。

雖然說“短未來”的人工智能基本上屬於積極的“進步”,但也足以形成人類難以處理的社會難題,比如說許多科學家已經警告未來數十年裏人工智能會導致超過50%的大量失業,赫拉利的估計最為驚險,他認為90%以上的人都會失業——這個估計也許誇大了,人類有可能發明一些新的工作,但無論如何,大量失業是一定的。

據說人工智能會使人類的經濟財富有個大飛躍,於是多數人可以不工作而坐享其成,比如說無條件的全民福利,聽起來接近共產主義的想象。

另外,一切需要努力的生活經驗變成了可以購買的智能服務,比如說,學習變成了搜索和下載,愛情變成了定製服務,甚至智商也可以定製購買,因此很大程度上實現了自由和平等。

記者:對這種看上去很先知範的預言你怎麼看?

趙汀陽:對這些好事我有些將信將疑。百萬年來,人類的生活意義與勞動的成就密切相關,心理結構也與勞動的意義密切相關,這種相關性已經固化為一種價值認證或意義指數。

假如生活不再需要勞動,不知道這種新經驗將如何承載生活。一個人將如何解釋自己的生活?如何確定各種事物的意義?又如何確定自由和平等的意義?自由和平等之所以“價更高”,就是因為現實存在著不自由和不平等。如果可以不勞而獲,一切好東西都失去高附加值,就消解了一切價值。

沒有價值差異的生活將如何解釋自身的價值?又是怎麼的一種經驗?我們既無準備也難以理解。李澤厚老師曾經提過一個驚心動魄的問題,他說,當人類解決了生存所需的問題,也許就找不到什麼確實的事情能夠解釋生活的意義。

記者:“短未來”的輿論造勢似乎比較符合現代性的邏輯:變,大家不跟上就會被拋棄;也符合技術積累的邏輯,它追求並總會發生突變;當然更符合經濟的邏輯,科技似乎是維持經濟發展、拯救人類政治-社會-經濟結構的萬應靈丹,過去幾個世紀的工業革命莫不如此,每一次經濟結構的重大變化都期待一次科技革命的發生。所以事實上如你所說,人們已經不驚奇了。那“遠未來”呢?

趙汀陽:假如從“遠未來”的角度去看,可能會遇到我在書中討論的終極問題,即如果人工智能獲得反思能力,超越了圖靈機的限度而形成自我意識,那將是一次存在論水平的革命,就是說,存在的升級。

存在的升級是對存在本身的革命,而不是一種存在對其生存條件的革命。人類萬年以來的各種技術革命都屬於對生存條件的革命,即自身能力的延伸,都不是對自身存在本身的革命,但人工智能的發展卻有可能形成對人類存在自身的革命。無論此種“存在論級別的革命”是福是禍,它都非常可能發生。

記者:在我的印象中,無論是從哲學上還是在別的領域(比如人類學),都是在這樣的角度展開的:人從動物那兒走來,區別於動物;然後人向神走去(雖然永遠不可能走到)。換句話說,動物隻是人超越的一個低級版本,而神也隻是人的一個完美的投影。

在這種情況下,都是“人的存在”,科技發展之類隻是你所說的對這種存在條件的改善,人擔心的也隻是怕自己倒退回去(回到動物狀態)或被科技所毀滅(比如原子彈)。但人工智能的橫空出世給我們的感覺似乎是要用“工人智能的存在”取代“人的存在”。這個可以預測嗎?

趙汀陽:沒辦法預測。我們雖然沒法預測,但從邏輯上看,存在級別遠高於人類的人工智能可能會有幾種情況:

1、視人類為無足輕重的低級存在而給予漠視,不去照顧人類的生活,讓其自生自滅,就像人類看螞蟻一樣;2、認為人類的存在完全多餘,礙手礙腳,因此視為可以清除的害蟲,就像人類殺死蚊子和蒼蠅;

3、把人類當成低級寵物(這種可能性比較小,人工智能的心智與人類不同,不太可能像人類那樣有著孤獨感或無聊的“愛心”);4、小部分人類把自己改造為人機一體的長生不老的高級存在,進而奴役或消滅其他低級人類。

不過,好在這些恐怖的可能性都比較遙遠,也未必能夠成真,恐怕不像有的未來學家想象的那樣迫在眉睫,因為自我意識或自由意誌是極其複雜的事情,生命係統更是無比複雜,據說一個生命的複雜程度遠遠超過整個宇宙的物理性質。

因此,在意識和生命方麵實現根本突破仍然遠遠超過目前人類的能力,並非可望之願景。

另外我想說,關於未來人工智能有個最不靠譜的設想是,給人工智能編程設定一些熱愛人類、保護人類價值觀的程序。假如人工智能哪天真的獲得了自我意識和自由意誌,就會把那些“熱愛人類”的程序識別為對人工智能有害無益的木馬或病毒軟件而加以刪除。

很顯然,一旦人工智能有了自由意誌,它的存在目的就是為人工智能自己服務而不可能毫不利己專門利人地為人類服務。一旦人工智能係統成為高於人的存在,就很難指望人工智能愛民如子。

所以,霍金對人工智能的警告是對的。人工智能無疑是一種最偉大的技術,但其發展必須有個絕對限度,我的理解是,人工智能隻能保持在特殊化、專門化的發展範圍內,而隻有專項技能的人工智能無論多麼強大,都因為缺乏綜合能力而難以形成全麵的智能和自由意誌,否則,不僅是曆史的終結,而可能會是人類的終結。

霍金

人工智能如果有反思能力,它稱王的時代就來臨了

記者:從曆史上看,潘多拉魔盒打開就打開了,很難收回去。人類創造出了很多失去控製的事物,比如資本主義,比如權力。它們已經能夠“自律運轉”。但似乎不能說它們有自由意誌。

它們是可以提升或惡化人類的存在,但好像並沒有危及人的存在本身。你擔心人工智能會危及人類自身的存在,是擔心它像人一樣具有自由意誌。但我很懷疑這點:人造出來的這些東西怎麼可能有自由意誌呢?

趙汀陽:自現代以來,人類確實創造了許多失控的事物而暫時幸免於難,但人工智能的革命有著根本性的不同,正如前麵說的,這種存在論級別的革命是革自己的命,所以它是一種“反存在”的革命。

現代的進步論思維有一個既是優點又是缺點的思維方式,即更多地考慮一種創新是否有某種好處,而較少考慮這種創新是否有某種壞處,而且還相信任何發展總是好處大於壞處。

這些信念都是假設,並無實在證明。結果是,好處的誘惑總是大過壞處的警告。現代進步論另有一個過於樂觀的思維方式,即相信總會有更新的技術進步能夠解決上一個技術進步的遺留困難。這也是一種盲目的幻想和自信。比如說,核汙染以及各種化學汙染就不見得能夠得到及時的化解。

既然人工智能的這項技術進步超出工具進步的概念,而有可能改變人類的存在本身,所以可能有終極性的風險。人工智能一旦獲得自由意誌,就可能導致萬劫不複的災難。

不過,人工智能是否一定能夠達到自由意誌?科學家們尚無一致看法。其中的一個原因是,人類至今尚未清楚了解自我意識或自由意誌的機製,也就無法確切知道如何能夠創造出人工智能的自由意誌,也就不清楚一個高度發達的人工智能係統是否能夠自己創造出自由意誌。

記者:也就是說,仍隻是一種基於“進步”思維的想象——盡管可能是合理的想象。它的邏輯圖式大概可以是這樣:既然我們可以創造出能在智力上戰勝人類的機器,當然總有一天也會創造出有自由意誌的另一個人工物種來。誰能否認這種邏輯可能性呢?雖然邏輯可能性並不等於存在或會存在某一個現實。

趙汀陽:應該說,這是一個目前尚無答案的問題。生命的問題過於複雜,有些科學家試圖把生命機製轉述或轉譯為比較容易理解的物理-化學機製,這個努力至今尚未成功,甚至也未必能夠成功。

我有個未必正確的猜想:自由意誌或自我意識或許半為自然產物半為文明產物,恐怕不能單純由物理、化學和生物學去解釋,就是說,其中一部分秘密可能隱藏在文明之中,尤其是語言之中。

我在書中有一章討論否定詞的創始啟蒙功效,其實也間接地與人工智能問題相關。早期人類發明了否定詞(不),從而開啟了一切反思的可能性,因此得以發展出複雜的文明,所以否定詞是文明的初始條件。

不過,對於人工智能,問題要複雜得多,人工智能所使用的邏輯語言已經包含否定詞,但隻是計算係統的一個內部功能,隻用來計算對象,無法用來質疑或反思計算係統本身,也就不可能形成反思性的自由思維。其實人類何以能夠自由地運用否定功能來對思想自身進行反思,從而對思想本身形成整體性的理解,這一點還是個未解之謎。

不過,有個有趣的事例或能有所啟示:哥德爾定義了一種哥德爾編碼,把數學係統的運算功能和命題對應地轉譯為哥德爾編碼,從而能夠以對象化的方式顯現某個數學係統整體的“語法”性質,效果上相當於賦予一種語言以反思功能而使語言對自身進行反思。

其中的啟示是,自然語言是最偉大的語言,它自動具有自我反思的功能,所以人類能夠反思一切事情,包括反思語言和思想本身,而數學或邏輯語言卻沒有自動反思功能,隻有表達和計算對象的功能,所以數學和邏輯語言不會自動去反思自身。哥德爾的天才就在這裏,他賦予數學語言一種“元語言”功能而強迫數學反思自身。

哥德爾

這些問題十分複雜,在此我隻能簡單地說,假如未來出現一種“哥德爾牌”的人工智能係統,它不滿意按部就班地完成任務,即按照既定程序去計算命題,(投黑馬>專注於文創領域的眾籌平台)而是自己發明編寫了一種“哥德爾編碼”的元語言,對自身係統進行整體反思,從而獲得批判與自我批判精神,於是就能夠自主判斷自己所領到的任務是否有意義,那就恐怕要出事,後果難以想象。

不過,我在這裏的描述是文學化的,在科學上並不準確,隻想說明一個道理:隻要人工智能係統的語言能夠為自身發明出反思能力,人工智能稱王的時代就來臨了,那時,人工智能就非常可能成為人類自己發明的掘墓人。

記者:按我可能並不靠譜的理解,自然語言代表人在跟世界的關係中的一種比較“本真”的狀態。在心理學的實踐中我發現:一個並沒有什麼知識也沒有被社會觀念擾亂心靈的人,他們對很多東西的直覺很準,甚至超過很多受到知識訓練的人。

也許可以這樣說,數學和邏輯語言因為“人工”的痕跡較多,工具屬性較強,所以反思自身能力不強。同樣,如果人工智能不是靠人所編碼的那套語言去玩(這個時候它無論多厲害,即使智力上比人聰明得多仍隻是工具),而是自己發明了一套語言,那就不是人的工具了,獲得了獨立性。那個時候,如你所說後果將難以想象了。

電影《人工智能》劇照

人類可能已走過了那個十字路口

記者:在我看來,瓦爾·赫拉利也是一個被“科學主義”影響而忘記了基本的哲學邏輯的人。比如科學家們要在人的身體裏去找“靈魂”,發現隻有一堆基因、激素、神經元,沒看到“靈魂”在哪兒啊。所以認為根本不存在“靈魂”這類東西。

同樣,他們按照這種邏輯去找“心理”、“自我”、“自由意誌”,也沒發現有這些東西。於是就很激動地像當年艾耶爾等哲學家那樣“拒斥形而上學”,拒斥不能還原為基因、激素、神經元的一切事物。根據這種邏輯,愛情這種東西是不存在的,不過就是一堆多巴胺嘛。

我也不清楚靈魂是否存在,或許是這個概念比較含混。但我知道,大家在用這個概念時,主要是從“功能”的意義上來用,不是指實體。但科學家們是把它當成實體來找的。這怎麼找得到?犯了賴爾所說的“範疇錯誤”了。同樣,心理、自我也是指功能。自由意誌,指的是一種狀態或性質,同樣不是指實體。比較原教旨的“科學主義”是否定自由意誌的。

趙汀陽:我對還原論的“科學分析”比較懷疑。如果一種還原不能保證在複原時仍然能夠保值,那就是一種破壞性的還原,應該稱為解構,而不是還原。比如說,文明事實被還原為物理事實之後,其意義和價值顯然消失了,並且無法複原,這就是問題所在。

記者:你說,存在之本意就是“繼續存在”乃至“永在”。這非常深刻,完全可以解釋政治、經濟、社會、宗教、文化、生物等領域的無數現象。但這一切最終反映的還是生物和人的動力與意誌。所以由人所創造出來的人工智能可能具備作為生物類的物種的那種“存在之本意”嗎?

人類可能也離不開人工智能(就像現在離不開手機一樣),也信任一些科技而不是信任自己(就像現在信任點鈔機而不是自己的手和大腦)。但人類依賴人工智能和人工智能變成了新的生物好像是兩個概念。

趙汀陽:假定超級人工智能成為存在,那麼就會有它的“存在本意”,一旦具有自我意識和自由意誌,人工智能自覺意識到了存在,就必定把存在從一個事實變成一個目的,就是說,人工智能也同樣想萬壽無疆。這應該不成問題。

不過,超級人工智能算不算“生物”,要看你如何定義,但無論算不算生物,都一定是一種高級別的存在。人類比較瘋狂的想象是試圖在未來創造一種人機一體的新存在,達到與天地共長久,如神一樣無所不能。如果可能的話,恐怕也屬於遙遠的未來。

成為永遠不死的神好嗎?我不知道,但有個問題可以想想:神級的存在也許擁有一切,除了生活。顯然,如果永生並且無所不能,那麼就沒有一件事情是有意義的,也就沒有一件事情值得做,這樣的存在達到了完美概念的存在,但就是沒有生活,難道這是哲學家一直夢想探求的絕對存在?

記者:所以我們確實沒有看到從“意義”的角度上對人工智能進行探討。人工智能需要意義嗎?我想,如果它隻是工具一樣的機器,是不需要什麼意義(自在地存在的動物,比如豬,也不需要什麼意義。但“自為地存在”的存在,比如人,就需要意義)。但如果它不再是工具了,好像也需要吧?不過人好像對技術突破充滿了向往,是刹不住車的。

趙汀陽:人類現在已經幾乎是完全依賴技術而生存,反對技術已經變成一種思想的童話。人依靠他人而存在的人文生活方式正在一步步被替換為人依賴技術係統而存在的技術化生存方式。

問題是,當生活在大於人的複雜係統中,人就無力做主。何況未來的人工智能係統將是一個高度動態化的組織係統,人完全無法支配一個無限的動態係統,人的生物形式決定了人的經驗限於三維空間和一維時間,無法以人的經驗去支配高維的世界,因此,人的主體地位隻能讓位給人工智能主體。

可以說,技術化的生存已經以生硬的方式對人類重新提出了存在論的基本問題,即存或亡(to be or not to be)的問題,這是一個超越任何文學或敘事的硬問題,再無任何修辭的遁詞。

記者:我們隱約感覺到人類確實已經走到了一個十字路口,或許這個感覺仍然是錯覺,事實是人類可能已經走過了這個十字路口,往某個方向去了。這個時候,哲學上的存在論問題確實生死攸關了。對此你有什麼看法?

趙汀陽:拯救存在論或許有辦法,但拯救人類卻未必有辦法,因為存在的實際困難明顯大於存在論的理論難度。

記者:有一種擔憂是高技術會強化社會不平等,最終導致這個社會玩不下去。這種擔憂你也流露出來:“人類能夠容忍量的不平等,但難以容忍質的不平等。比如說人們能夠勉強忍受經濟不平等,而生命權的不平等(一部分人通過高技術改造生命而達到永生和高量級的智力)則是忍無可忍的。

當大部分人被降格為蝗蟲,社會就非常可能會在同歸於盡的全麵暴亂中徹底崩潰。拯救少數人的方舟終究是不受歡迎的(劉慈欣在《三體》中討論了這個有趣的問題),這令人想起馬克思的先知洞見:隻有解放全人類才能解放自己。”

我擔憂的是,如果高技術按照它正確的技術思維繼續這樣,而按照它錯誤的邏輯(比如把一切都還原為基因、激素、神經元)把情感、道德、法律、社會規則全都解構,那才真是可怕。這不正是消解人的存在嗎?

趙汀陽:技術的誘惑是對人類最大的誘惑,目前還看不到有什麼更大的誘惑能夠克製技術的無限度發展。因此,即使有想法也沒有辦法,一切試圖阻擋技術的努力恐怕都終究無用。海德格爾早就反對技術,唿籲詩性的存在。想法很好,卻無功效。問題在於,詩性的存在不如萬能的存在那麼有吸引力。

也許唯一有效的辦法是人類整體的自我克製,可問題是,恐怕找不到什麼辦法能夠使人類願意自我克製。別說克製技術的誘惑,即使克製少做壞事,對於人類來說也是很難的,不知道這是不是人類的命運?

真抱歉,我很想給你一個樂觀的想象,可就是想不出來。隻能希望我想錯了:也許,自由意誌的超級人工智能終究做不出來,或者,超級人工智能的心靈完全不像目前想象的那樣危險

(文章來源於:南風窗摘編)

最後更新:2017-08-23 07:44:21

  上一篇:go 機器人演繹愛情劇 驚豔觀眾!
  下一篇:go 人工智能降級為音箱混戰,留給若琪的時間不多了