閱讀960 返回首頁    go 機器人


人工智能為何需要哲學?

蘇格拉底:我不可能教會任何人任何事,我隻能讓他們思考

【價值觀】人工智能給今天的人類所帶來的是一種深度的恐慌,這種恐慌來自於對人類智能、乃至人類生命失去意義、失去價值的深深擔憂,這種恐慌比金融危機、或經濟危機所帶來的恐慌更甚

麵對這一恐慌,有大量的科學家開始解釋人工智能不可能超越人類,但也有同樣數量的科學家卻在斷言人工智能一定超越人類。

哪一個是正確答案?智慧人類終於又想起哲學。價值家認為:在人工智能和人類智慧之間,至少有這幾道鴻溝,是機器智能很難跨越、或者需要長時間才能跨越的。今天的機器智能雖然極其高效、但還隻是非常特定的“極窄智能”,正如下圍棋的機器人還打不了籃球——

專用機器智能=》通用機器智能=》人類一般智能(科學&理性)=》人類抽象智能(哲學)=》人類智慧

更重要的是,以人類的樂觀價值觀為武器,我們堅信,智慧的人類肯定不會等於人工智能毀滅人類的哪一天才開始行動,人工智能和人類智能的未來命運,一定是共同進化

徐英瑾教授大概是中國大陸少有的持續關注人工智能的哲學研究者了。他還專門為複旦學生開了一門叫做“人工智能哲學”的課。這門課第一講的標題,也是我們向他提出的問題:為何人工智能科學需要哲學的參與?或者換句話來說,一個哲學研究者眼中的人工智能,應該是什麼樣的?

(一)專訪:大數據、人工智能、哲學

徐英瑾:對我來說,我現在推崇的就是AGI——Artificial General Intelligence。在一般所謂的Artificial Intelligence(人工智能)中間加了一個General(普遍),這就意味著,它要做普遍的計算,工作起點與現在人們理解的人工智能是不一樣的。

現在的做法,是先在某一專門領域造一台無比厲害的機器,比如,在問答遊戲領域造一個Watson,讓它戰勝一切人類選手,再在圍棋領域造一個AlphaGo,讓它戰勝一切人類棋手。這是基於一種商業的邏輯:先在某一領域深入下去,取得成功,弄出很大的聲勢,然後吸引資本進入,接下來再嚐試將相關技術推廣到其他領域。但是這種做法,在哲學上是行不通的。

以小朋友的成長為例。任何偉大的人,愛因斯坦也好,李世乭也罷,小時候總是各方麵都有潛能的,然後隨著他逐漸成長,某一方麵的能力變得特別突出,即便如此,其他方麵的能力也至少是在平均水平,就算比平均水平低,也不會低多少,否則就無法正常地工作了。簡單來說,這是一個養成的過程。我所設想的人工智能,就應該是這樣的,它是具有普遍性的,跟人類一樣,有一個養成和學習的過程,能夠適應多個領域的工作。

而現在的做法,是分成好多個領域,一個領域一個領域地來做,做完之後,再合在一起,情緒、認知這些方麵都不去管。那麼,問題來了,你怎麼知道這些領域最後合在一起,就能產生人工智能呢?打個比方,很大程度上這就相當於,去國際軍火市場隨機購買軍火,然後整合成一支部隊,或者去不同國家采購零件,然後拚湊成一架飛機。這顯然是不可能成功的。

而且,按照目前的做法,還會形成一種路徑依賴,比如說對大數據的追捧。將來即便發現這條路走錯了,要想再去走正確的路就很難了。這就好像一支軍隊用了很久的蘇式裝備,一旦換成美式裝備,全軍都會不適應。這個問題很容易就能想到,但是現在竟然就連這方麵的批評都那麼少,簡直不可思議。

您從什麼時候開始關注人工智能哲學的?

徐英瑾:差不多從2004年左右開始吧,我在翻譯王浩文集的同時,讀到瑪格麗特·博登的《人工智能哲學》這部論文集。當時人工智能遠遠沒有現在這麼熱門,但是我覺得,這是未來哲學應該處理的問題。博登的書隻是一部入門之作,從此書開始,我找了大量相關資料閱讀。

關於人工智能哲學研究,我主要是和美國天普大學的計算機專家王培老師合作,他研究人工智能的體係,認為它就是為了在小數據的情況下進行應急推理。那個時候我還不知道有大數據,當然,大數據的前身,如貝葉斯、神經網絡等都有了——今天的深度學習是當時的神經網絡的高度加強版,根上的東西從欣頓(Geoffrey Hinton)那時就有了。後來大數據越來越熱,我才關注到相關討論。不過,這種關注對我的研究實際上是一種幹擾,因為我知道它是錯的。

說到大數據,您在這方麵發表了不少文章,比如有一篇就叫“大數據等於大智慧嗎?”最近也頻頻談論大數據問題。您在這方麵的觀點是什麼?

徐英瑾:如果用一句話來概括的話,就是,我談論大數據的目的在於反對大數據。現在有一種很不好的風氣,就是“IP”橫行,“大數據”也被當作了IP,更糟糕的是,連我對大數據的批評也成了這個IP的一部分。事實上,我的批評背後,有我的理論關懷,就是日本哲學家九鬼周造的學說。九鬼周造寫過一本書,叫《偶然性的問題》,說整個西洋哲學都喜歡從必然性的角度來解決問題,必然性解決不了就用概率論,但偶然性是永遠不能被馴服的。大數據是試圖馴服偶然性的一種嚐試,但它終將無法馴服。

中國曆史上,這樣的例子很多,尤其是軍事史。你看那些大的戰役的指揮者,彭城之戰的項羽也好,赤壁之戰的周瑜、魯肅也罷,他們最終作出決策,靠的是什麼呢,難道是大數據嗎?其實是核心情報的評估和基於常識的推理,以及一點點碰運氣式的瞎蒙。因為戰爭是充滿無知之幕的。那些以小勝多的戰役,如果光看大數據,那麼一切都會指向多的那一方要獲勝,少的那一方無疑是找死,可是事實是什麼呢?

所以,我所設想的新一代人工智能,是能夠“認命”的機器人。說“認命”,不是說服從偶然性,而是利用偶然性;不是說無所作為,而是順勢而為。

您的這種觀點,說不定會遭到工程技術人員抱怨:哲學流派、觀點那麼多,我們怎麼搞得清楚?

徐英瑾:工程技術人員的抱怨,有一點我是同情的:兩千年來,哲學問題的確沒什麼實質性的進展。那麼,麵對這種情況,我們要采取什麼策略呢?印度有部電影叫《噢,我的神啊》(OMG:Oh My God!),男主角是個外星人,他跑到地球上之後,不知道哪個神管用,就每個神都拜一拜。

哲學流派、觀點很多,保不齊哪一個管用,每一個都要有人去嚐試。不能所有的人都搞大數據,都搞神經網絡、深度學習,這很危險。現在資本都往這幾個領域裏麵湧,這是缺乏哲學思維的,某種意義上也是缺乏風險管理思維。一件這麼不靠譜的事情,你怎麼能隻試一個方向、一種流派?

而且,更糟糕的是,這方麵的研究人員常常滿腦子技術烏托邦,拿生活經驗去細想一下,其實是很荒謬的。舉個例子來說,現在 “奇點”被炒得火熱,大意是說,奇點革命一旦到來,人類社會將被顛覆。

事實上怎麼樣呢?我這一代人經曆了改革開放初期的物質貧乏,一直到今天的物質極大豐富,我們七八歲時關於二十一世紀的烏托邦式想象,今天實現了幾個?深層次的社會結構並沒有怎麼改變,比如醫療領域,各種新技術的出現其實強化了現有的社會結構,加劇了貧富階層之間的差距,又談何顛覆呢?大家把人工智能吹噓得好像很厲害,其實它一點都不厲害,還有一堆問題沒有解決,你去擔心它毀滅人類幹什麼?這就和堂吉訶德一樣,把風車當作怪物,自己嚇唬自己。

在您看來,目前這種以大數據為基礎的人工智能,繼續發展下去,可能會取得什麼樣的結果?

徐英瑾:我認為,再繼續這樣熱炒下去,就是技術泡沫,最後什麼也做不出來。關於人工智能的發展,業內有點曆史意識的人,腦子裏往往有一張圖表,下方是時間,上方是發展水平,目前的人工智能在這張表上的確在上升,但不久就會遇上瓶頸。就像我前麵說的,它在哲學上是行不通的,很多理論問題還沒有得到解決。我個人還是更傾向於小數據。

您關於小數據的觀點,在學界有代表性嗎?您能就某個方麵的實例來詳細談談,有哪些人工智能的理論問題還沒有得到解決嗎?

徐英瑾:在人工智能學界,小數據不算主流,但在其他領域就不一樣了,心理學界對小數據的思考就很深入,德國的吉仁澤(Gerd Gigerenzer)做了大量的工作,人工智能學界還沒有關注到。這是很可惜的事情。

說到有待解決的理論問題,我可以拿腦研究來作為例子。現在有一種傾向,是試圖從大腦出發來製造人工智能。這方麵的風險實在太大,很多人不明白大腦究竟有多複雜。

大腦有10^11個神經元,彼此之間存在著極為複雜的聯係,其中存在的可能性是個天文數字。在很大程度上,我們進行情感判斷和複雜推理的腦區可能是不一樣的,對此學術上依然沒有弄清楚。現在出了很多這方麵的論文,但是並沒有給出統一意見,這是因為,大腦和大腦之間還存在著個體差異和民族、文化差異,被試者要經過一定的統計學處理之後才能去除這類差異。

這種操作是很複雜的,而且成本很高,現在進行腦研究主要靠核磁共振成像,這是很昂貴的手段,不足以支持大樣本研究。這就導致,現在的研究成果不是科學上要求必須這麼做,而是經費上隻能允許這麼做。但是最終得出的結論卻嚴重地僭越了自身的地位,誇大了自身的代表性。

神經生物學告訴我們,人的神經元是具有文化可塑性的,上層的文化影響會在底層的神經分布當中得到體現,所以,對腦神經做科學研究,是無法剔除文化因素的影響的。人一旦早年處在某個文化共同體當中,神經受到了塑造,今後再想改變就比較難了。這在語言學習當中得到了非常鮮明的體現。日本人說英語比較慢,因為日語是動詞後置的,而英語不是,所以他們說英語要做詞序變換,導致語速變慢。這就是他們特有的語言編碼方式。

因此,你現在如果真的要創造一個大腦,那麼它不能是生物的,而必須是矽基的。即使它的構成是類神經元的,也依然是矽基的,否則就是在克隆人了。如果你要對大腦進行抽象,你隻能抽象出它的數學成分。這裏麵有個問題:純數學不能構成對世界的描述。純數學每個單位後麵要加量綱,量綱要選擇哪些東西,取決於你看待這個世界的視角和方向。這就是哲學和理論層麵的問題。大腦其實是一層一層的,最底層是生物、化學的東西,再往上就是意識、感覺的東西。

那麼,任何一個生物組織,對它的數學模擬,到底是事後諸葛亮式、近似式的追問,還是能夠把握它的本質?這是一個很可怕的理論黑洞,不僅是一個工程學黑洞,首先是一個哲學黑洞。這麼大一個黑洞,你認為十年二十年能夠把它搞清楚,你說風險大不大?比較穩妥的,還是去尋找一條可靠的路徑。

您覺得人工智能的可靠路徑是什麼?

徐英瑾:首先應該放在自然語言處理上。但是,現在就連這方麵的研究,也依然是在做大數據,比如翻譯軟件,它的處理方式就是看現有的譯文是怎麼翻的,然後它就怎麼翻。這是完全不對的。正確的處理方式,是定下一個高目標:將日語寫的俳句翻譯成中文或英文,而且必須是當代作家即興創作的俳句,而不能是鬆尾芭蕉這類知名詩人的、可以檢索的俳句。翻譯好之後,把美國最好的俳句專家找來做圖靈測試。

這個標準雖然很高,但並非不可企及,而且這是正確的方向。隻是,如果我們把精力和資源都放在大數據上麵,我們就永遠也達不到這個目標。因為大數據都是從已有的經驗出發,全新的領域它是應付不來的。美國的日本文學專家怎麼譯俳句?當然是先揣摩文本,進入語境,讓自己被日式審美所感動,然後思考,美國文化當中類似的語境是什麼。這裏麵就牽涉到對審美情趣的整體把握。什麼是審美情趣?它是和物理世界分割開來的,還是隨附在物理世界上的?這裏麵,又是一堆問題。這些問題不弄明白,僅僅是靠大數據,是不可能成功的。

您前麵談了這麼多,我看總結起來就是一句話:當下人工智能的發展,問題比辦法多得多得多。

徐英瑾:這是沒辦法的,打個比方,現在的人工智能的目標,是想要造出一個《超能陸戰隊》(Big Hero 6)中的“大白”那樣的機器人,既然當下人工智能發展給自己定下了這麼一個科幻式的目標,那麼,我前麵所談到的問題都是必須考慮到的。實際上,《超能查派》(Chappie)這樣的電影對人工智能的表現,我覺得是比較合理的,我也很讚同。

它很清楚地告訴你,機器人也有一個學習的過程,很大程度上跟培養小孩是一樣的。我構想的未來的人工智能,買回來放到家裏你是要教的,而不是一開始就什麼都會。前麵說到OMG這部電影,裏麵那個外星人的思維方式就像人工智能,他的推理是嚴謹、科學的,但因為地球上的多神係統很混亂,他經常因為推理失誤觸犯某些宗教的禁忌而挨揍,挨完揍之後,他就迅速得出了更接近真相的結論。

這樣一個建立假設、驗證、挨揍,之後再建立新假設的過程,實際上是科學家的做法,以自己被揍為代價,增進了對地球的認識。但是,重要的地方在於,他的思維方式僅僅是基於小數據:被揍一次之後立刻修改自己的解釋;如果是大數據,他會想,被揍一次還不行,應該多被揍幾次才能得出正確結論。生物體要是按照大數據的思維方式來的話,早就在地球上滅絕了。

在您看來,未來的人工智能,或者說真正的人工智能應該是什麼樣的?

徐英瑾:現在很多人工智能研究最大的問題,是不受視角的製約,但是,真正的人工智能是受視角和立場製約的。對機器來說,就是受製於預裝的係統和它後來不斷學習的經驗,而預裝的係統,就相當於人類的文化背景。我所構想的人工智能,是需要學習和培養的。AlphaGo當然也要學習,一個晚上下一百萬盤棋,但那是極為消耗能量的學習。人工智能應該是舉一反三式的學習。AlphaGo雖然強大,但是隻能幹下棋這樣一件事情,無法幹別的。

當然,我並不是說,AlphaGo的深度學習技術不能用來做下棋之外的事,這個技術本身可以用來做很多事情。我的意思是說,這個技術一旦做成某一具體的產品,這個產品的功能就固定下來了。用樂高積木來打個比方,如果你是精於此道的高手,你可以拚出一艘航母、一幢高樓,但是一旦拚出了一艘航母,除非你把它拆掉,它就一直是航母了,不再會是高樓。

類似地,一旦你用深度學習技術做出了AlphaGo這個專門用來下棋的機器人,如果再想讓它去幹別的,很多基本訓練和基礎架構就必須從頭做起,這就相當於把拚成航母的樂高積木一塊一塊地拆下來,再拚成一艘航母,而想而知工作量會有多大。那麼,問題來了:你是需要一個什麼都能幹,雖然不一定能幹到最好的機器人呢,還是需要一個隻能把一件事情做到最好,其他什麼都不會的機器人?這兩種機器人,哪種對人類社會起到的作用更大?

不妨拿戰爭舉個例子。未來的戰場會需要大量的戰鬥型機器人。一個士兵在戰場上遇到的情況是千變萬化的。請問,難道隻有醫療兵知道怎麼救援嗎?別的士兵也知道,隻是未必做得有那麼好而已。同樣,醫療兵也會使用槍械。

再拿家政服務舉個例子,給中產家庭用的機器人,和給富豪家庭用的機器人,肯定是不一樣的。AlphaGo這樣的機器人怎麼去迅速適應呢?關於圍棋的輸贏是有明確規則的,可是家政問題有規則嗎?如果機器人給一個大知識分子收拾書房,打掃得太幹淨,他反而不滿意,可能要拍桌子:“亂有亂的味道!書房怎麼可以弄得這麼幹淨呢?”但是你不給他打掃,他又不開心了,“書總歸要碼得整齊一點,蜘蛛網總歸要掃掉吧”。

所以,行為的分寸如何把握,是需要人工智能來學習和判斷的。而人工智能如何學習和判斷呢?這是需要人類去調教的。

前麵您又是舉例子,又是講理論的,談了很多。最後,能請您簡短地用一句話概括您對當下人工智能的觀點嗎?

徐英瑾:少一點資本泡沫,多一點理論反思。

(二)人工智能研究為何需要哲學參與?人工智能哲學作為一個行當,在國內基本上是還沒有確立起來。總體來說國外的情況比我們好一點,馬馬虎虎算一個哲學分支。舉個例子,瑪格麗特·博登是研究人工智能哲學的一個比較大牌的人物,一個女哲學家,英國人。她為什麼研究比較好?因為她和MIT、卡耐基梅隆這些研究人工智能的重鎮有非常密切的聯係,和那裏的人工智能界的大佬都是私下的朋友。而且瑪格麗特除了是哲學專家以外,在計算機、生物學、心理學方麵都有相應的學位。我們國家在文科和理科的交匯方麵的確做得不是很好。

一、哲學能夠為人工智能做些什麼?

哲學要做的第一件事是思考大問題,澄清基本概念。

與哲學家相比較,一般的自然科學家往往隻是在自己的研究中預設了相關問題的答案,卻很少係統地反思這些答案的合法性。

第二,哲學在不同學科的研究成果之間尋找匯通點,而不受某一具體學科視野之局限。

舉一個例子,用軍事上的比方,哲學更像是戰略性思考。如果你是在一個炮兵學院裏麵,不同的研究炮兵戰術的軍官會討論炮兵戰術所牽扯到的具體的幾何學問題。但是站在戰略層麵,它可能對於這些非常細微的問題會忽略,更多的會考慮炮兵在軍事編製中所扮演的功能角色,站在更高的層麵去看。這可能幫助大家理解哲學應該是幹什麼的。

第三,重視論證和辯護,相對輕視證據的約束。

人工智能需要哲學嗎?

我個人認為如果說化學家、物理學家和生物學家對哲學的排斥還有一點道理的話,人工智能對哲學的排斥是最沒道理。就對於哲學文化的寬容程度而言,AI科學絕對算是個科學界內部的異數。從某種意義上說,該學科本身的誕生,就恰恰是“頭腦風暴”般的哲學思辨的產物。

人工智能異數異到什麼地步?以至於現在教育部的學科目錄裏麵沒有人工智能,這是很有諷刺意味的事。也許以後會形成一級學科,但是現在還沒有形成。

我們先看下阿蘭·圖靈,阿蘭·圖靈(Alan Turing,1912-1954)在英國哲學雜誌《心智》上發表了論文《計算機器和智能》(Turing 1950)。在文中他提出了著名的“圖靈測驗(Turing Test)”的思想。

此文牽涉到了對於“何為智能”這個大問題的追問,並試圖通過一種行為主義的心智理論,最終消弭心理學研究和機器程序設計之間的楚河漢界,同時還對各種敵對意見提供了豐富的反駁意見。這些特征也使得這篇論文不僅成為了AI科學的先聲,也成為了哲學史上的經典之作。

1956年發生大事件——Datmouth會議,在這一年夏天的美國達特茅斯學院(Dartmouth College),一群誌同道合的學者驅車赴會,暢談如何利用剛剛問世不久的計算機來實現人類智能的問題,而洛克菲勒基金會則為會議提供了7500美元的資助(這些美元在當年的購買力可非今日可比的)。

2006年達特茅斯會議當事人重聚,

左起:摩爾、麥卡錫、明斯基、塞弗裏奇、所羅門諾夫

在會議的籌備時期,麥卡錫(John McCarthy,1927~)建議學界以後就用“人工智能”一詞來標識這個新興的學術領域,與會者則附議。

參加達特茅斯會議的雖無職業哲學家,但這次會議的哲學色彩依然濃鬱。

首先,與會者都喜歡討論大問題,即如何在人類智能水平上實現機器智能(而不是如何用某個特定的算法解決某個具體問題)。

其次,與會者都喜歡討論不同的子課題之間的關聯,追求一個統一的解決方案(這些子課題包括:自然語言處理、人工神經元網絡、計算理論以及機器的創造性,等等)。

最後,不同的學術見解在這次會議上自由碰撞,體現了高度的學術寬容度(從麥卡錫完成的會議規劃書[McCarthy et al. 1955]來看, 沒有什麼證據表明這次形式鬆散的會議是圍繞著任何統一性的、強製性的研究綱領來進行的)。讓人欣慰的是,這些“哲學化特質”在美國日後的AI研究中也得到了保留。

為何AI科學對哲學的寬容度相對來得就比較高?這背後又有何玄機呢?

這首先和AI科學自身研究對象的特殊性相關的。

AI的研究目的,即是在人造機器上通過模擬人類的智能行為,最終實現機器智能。很顯然,要做到這一點,就必須對“何為智能”這個問題做出解答。

如果你認為實現“智能”的實質就是去盡量模擬自然智能體的生物學硬件。你就會去努力鑽研人腦的結構,並用某種數學模型去重建一個簡化的神經元網絡(這就是聯結主義者所做的)。現在我們都知道有一個類腦研究計劃,這種研究有複雜版本和簡單版本,複雜版本就是藍腦計劃一樣,把大腦運作的信息流程盡量逼真的模擬出來,比較簡單的就是簡化的神經元網絡。

站在專業的研究腦科學的立場上,神經元網絡很不神經,離真正的神經活動來說,它是高度簡化,但是站在很宏觀的立場上,至少你說神經元網絡也是受大腦的啟發和影響。這個路線很多人認為是對的,我認為可以做出一些成果,但是不要抱有太高的期望。

如果你認為智能的實質僅僅在於智能體在行為層麵上和人類行為的相似。那麼你就會用盡一切辦法來填滿你理想中的智能機器的“心智黑箱”(無論是在其中預裝一個巨型知識庫,還是讓其和互聯網接駁,以便隨時更新自己的知識——隻要管用就行)。

由此看來,正是因為自身研究對象的不確定性,AI研究者在哲學層麵上對於“智能”的不同理解,也才會在技術實施的層麵上產生如此大的影響。很明顯,這種學科內部的基本分歧,在相對成熟的自然科學那裏是比較罕見的。

其次,AI科學自身的研究手段,缺乏刪除不同理論假設的決定性判決力,這在很大程度上也就為哲學思辨的展開預留了空間。

二、哲學文化滲入AI的幾個具體案例

下麵我們講一些案例,這些案例可以證明哲學思維對AI是非常有用的。

霍伯特·德瑞福斯(Hubert Lederer Dreyfus,1929-),美國加州伯克利分校哲學教授,美國最優秀的現象學家之一,在海德格爾哲學、福柯哲學、梅洛-龐蒂哲學研究方麵很有造詣。讓人驚訝的是,以歐陸人本主義哲學為背景的德瑞福斯,卻寫下了AI哲學領域最富爭議的一部著作《計算機不能夠做什麼?》(Dreyfus 1979)以及其修訂本(Dreyfus 1992),並使得他在AI領域的社會影響超越了他的學術本行。那麼,他為何要轉行去寫一本關於AI的哲學書呢?

霍伯特·德瑞福斯(Hubert Lederer Dreyfus,1929-)

Hubert L. Dreyfus,《機械戰警》裏麵出現某個反對機器人有自動開火能力的哲學家和這個哲學家的名字一樣的,我認為編劇是故意這麼幹的,因為他在美國是非常有名的搞人工智能哲學的專家。他為什麼要去搞人工智能哲學?

非常有意思,根據他自己和記者的講法,這和他在麻省理工學院教學時所遭到的一些刺激相關。在1962年就有學生明白地告訴他,哲學家關於人性的思辨現在都過時了,因為閩斯基等AI科學家據說在不久後就可以用工程學的方法實現人類智能的方方麵麵。

德氏覺得這話近乎於天方夜譚,但是為了做到公允起見,他還是在不久後去了美國的頂級民間智庫“藍德公司”(Rand Corporation)進行調研——因為恰恰在那個時候,司馬賀、紐艾爾和肖(Cliff Shaw)等AI界的頂級大腕也正在那裏從事研究。經過一段時間的分析以後,德氏最後確定自己對於當時的AI規劃的懷疑乃是有根據的,並在1965年扔出了他擲向主流AI界的第一塊板磚:《煉金術和AI》(Dreyfus 1965)。

德氏對於主流AI進路的批評意見很多,其中比較有意思的一條是,真實的思維是不能夠被明述的程序所窮盡的。比如說你在打網球的時候,是不是得先看到了球,然後計算其入球的角度,計算你的拍子接球的角度以及速度,最後才能夠接到球?顯然不是這樣的,因為由上述計算所帶來的運算負荷是很高的,我們人類的大腦未必“消費得起”。

實際上,熟練的網球手僅僅是憑借某種前符號規則的直覺領悟才能夠把握到接球的正確時機的——而對於這些直覺本身,傳統的程序設計方案卻往往是無能為力的。

不過,德氏本人並不認為所有的AI進路都無力解決上述問題。換言之,一些更為新穎的AI進路或許能夠對如何把握這些前符號的直觀提供方案。他認為,這些進路必須更為忠實地反映身體的結構,以及身體和環境之間的互動關係,而不僅僅是在符號的內部世界中打轉。他的這個想法,以後在AI專家布魯克斯的理論建樹中得到了發揚光大。

布魯克斯在論文《大象不下棋》中以哲學家的口吻評價道:新潮AI是建立在物理根據假設(physical grounding hypothesis)之上的。該假設說的是,為了建立一個足夠智能的係統,我們就絕對需要將其表征的根據奠定在物理世界之中。我們關於這一工作路徑的經驗告訴我們,一旦我們做出了這種承諾,那種對於傳統符號表征的要求就會馬上變得黯淡無光。

AI專家羅德尼·布魯克斯

這裏的核心命意在於,世界就是認知係統所能有的最好的模型。世界一直能夠及時更新自身。它總是包含了需要被了解的一些細節。這裏的訣竅就是要讓係統以恰當之方式感知世界,而這一點常常就足夠了。為了建立體現此假設的模型,我們就得讓係統通過一係列感知器和執行器而與世界相聯係。而可被打印的字符輸入或輸出將不再引起我們的興趣,因為他們在物理世界中缺乏根據。

按照布魯克斯的看法,AlphaGo打敗李世石很偉大嗎?他第一個反應是有什麼了不起?因為他認為智能的重要性不是在於下棋,舉出他的反例是大象不下棋,你造一個人造大象,模擬大象的所有生命活動,其實大象有很複雜的活動。或者海豚不下棋,你造一個人造海豚,下棋算什麼本事?什麼德州撲克,他都不在乎。他更關心怎麼製造智能係統和外部世界由嵌入式的認知,能夠把外部世界本身直接當作這樣的認知對象,而不是當中造出一個中間的符號。

這種想法在很大程度上具有一定哲學上的創新性,布魯克斯本身的研究更加注重的是對機器昆蟲這種低等動物的行走能力的模擬,對高級智能是比較輕視的。這也是建立在很基本的觀察上,人工智能研究的特點是小孩子越是容易做到的事,現在人工智能越難做到。比如很大程度的感知、把握,這是非常困難的。

為何科學訓練中缺席哲學訓練?

首先,對於處於“學徒期”的科學入門者而言,學會服從既定的研究範式乃是其第一要務,而對這些範式的“哲學式懷疑”則會導致其無法入門,而不是像哲學一樣,在這個範式以外還有其他的可能性,有不同意見的交流。

第二,嚴格的一級、二級、三級學科分類導致學生們忙於如何熟悉特定領域內的研究規範,而無暇開拓視野,浮想聯翩。根據我對教育部的分類了解,人工智能在中國是不存在的學科,這是很奇怪的事。

稍微對人工智能這門學科了解的人都知道,大概十幾年前搞人工智能的人不敢說自己搞人工智能,怕被扔磚頭,大家認為是騙子,現在行情突然發生變化。如果你站在具體學科分類的內部來看學科,你就不容易受到其他學科的思維方式的滋養。

第三,對於權威科學模式的服從,在很大程度上使大家不願意接受異說。人工智能學科最大的特點是很喜歡攻擊對方是異說,現在深度學習起來了,但深度學習的前身是神經元網絡,它最大的敵人就是符號AI,符號AI和神經網絡之間的關係基本是曹操和劉備的關係,就是漢賊不兩立,雙方幾乎在人脈、資金、學術觀點所有地方展開比《甄嬛傳》還要激烈的宮爭。

現在從整體看來,神經元網絡的兒子就是深度學習占據了比較高的位置,曆史上它被打壓的間很長。我自己觀察下來,人工智能中不同的爭論是對資金的方向的控製。

傳統AI最典型的哲學問題是框架問題:

常識告訴我們,手若抓起了積木,隻會改變積木的位置,卻不會改變積木的顏色以及大小,因為手抓積木這個動作和被抓對象的顏色以及尺寸無關。但一個AI係統卻又如何知道這一點呢?除非你在定義“手抓”動作的時候得說清,這個動作一定不會引起什麼。

但這種定義必然是非常冗長的,因為這會逼得你事先將事物的任何方麵都羅列清楚,並將這些方麵在相應的“框架公理”中予以事先的排除。很顯然,對於“手抓”命令的任何一次執行,都會調用到這些公理,這就會使得係統在執行任何一個簡單任務的時候都會消耗大量的認知資源。然而,我們又都期盼係統能夠用比較少的資源來解決這些看似簡單的任務。這就構成了一個巨大的衝突。

語義相關性究竟是怎麼一回事情?既然計算機的在句法運作的層麵上隻能夠根據符號的形式特征進行操作,它又是如何理解自然語詞之間的內涵性語義關聯的?形式邏輯,或者別的形式係統,究竟是否可能以一種簡便的方式刻畫語義相關性?

你可以預先在邏輯、公理裏麵說清楚所有事情之間的相關、不相關,但是沒有辦法寫成一個可以執行的程序。你寫這樣的程序,在任何一種情況下,你的機械手舉起任何一塊積木,這件事情隻會導致它的位移,而不會改變被舉起來的積木的顏色。你覺得囉嗦嗎?這不是最可怕的,更可怕的是機器會不停問你,會引起這個、引起那個嗎?很煩,因為機器不懂我們一下子能把握的相關性和不相關性,這是很恐怖的。

所以丹尼爾·丹尼特寫了一篇論文說,如果你用這個原理去造一個拆彈機器人,剪黃線還是剪紅線、剪線會引起什麼,他想半天,炸彈炸了。因為剪炸彈的線是有時間限製的。你不能想象這個東西是有用的東西。

三、從哲學的角度反思現在自然語言處理與機器翻譯

我們再看比較新的話題,從哲學的角度反思現在的自然語言處理與機器翻譯,嚴格的說,自然語言處理是大概念,機器翻譯是一個小概念。機器翻譯是屬於自然語言處理的,但有時候會把它分開來說。

現在機器翻譯曆史上有不同的路數,有基於神經元網絡,基於統計的,基於符號的,基於中間語的,還有很多、很多路數。但是深度學習牛掰起來以後,大家都用深度學習來做,很大程度上,深度學習做機器翻譯也將流行,也結合了一些大數據的方法。

“深度學習”技術,主要是作為一種“工程學技巧”進入我們的視野的。實際上,我們目前尚無法在科學層麵上清楚地說明:“深度學習”技術為何能夠提高相關程序之應用表現——遑論在哲學層麵上為這種“進步”的“可持續性”提供辯護。

傳統的神經元網絡和深度學習相比,它的特點是中間處理層層數比較少,而現在的深度學習靠硬件的進步,可以把中間的處理層做成幾十層上百層,這是以前不可想象的。做多以後,在很大程度上分析問題的層次感就多了,因為它層數越多就可以用不同的角度和層數分析問題,因此,很大程度上處理問題的手段就更加細膩了。的確體現出一種明顯的工程學的進步。

很大的問題是,這種進步是否可持續?我自己站在哲學領域是持保留意見,我認為可以搞搞,但是認為這件事最後能做成像霍金所說的毀滅人類的超級人工智能是胡扯。我們可以借一些例子來討論、討論。

傳統的人工神經元網絡有輸入層、中間層和輸出層,通過數據的處理得到一個輸出,通過反饋算法等等東西來弄,它的最重要的是要調整計算單元之間的權重,通過這種權重的調整,慢慢的讓它的適應一類任務。傳統的神經元網絡最大的特點是,它能夠執行的任務是比較單一的,也就是說它完成一個任務以後做了什麼,就永遠的恒定在這個表現的水準上做這個事。

如果你讓他在大量幀數的畫麵裏,在所有有劉德華的臉出現的圖片裏麵做標記,他開始標記的水平比較差,但是他標記的至少比另外一台機器好,另外一台機器把關之琳的臉也標成劉德華,你的機器至少在正確的道路上,隨著時間推移,通過訓練慢慢能做了。然後劉德華演一部新電影,這電影剛剛上映,顯然不是在訓練樣本裏麵,讓他辨認裏麵是誰,分得很清楚,劉德華、吳彥祖、關之琳,分得很清楚,訓練成功。

現在給它一個新任務,現在不是認人臉,是認一個完全不同的東西,練什麼東西呢?假設是一部武打電影,裏麵也有劉德華參與,但是不要認劉德華,把所有打螳螂拳或者詠春拳的畫麵選出來,我沒學過,如果你要做這件事,這個機器要重新來進行調整。

但是人類可以做一個推理,比如人類如果已經知道了甄子丹經常演葉問,而葉問是打詠春拳的,而人類已經學會了識別甄子丹,如果一部電影我給你一個任務,到底哪些畫麵是在打詠春拳?你不用看什麼拳,你盯著葉師傅,盯著甄子丹就可以。

這裏麵有三段論推理,非常方便的從一個知識領域到另外一個知識領域。怎麼識別甄子丹是一個領域,誰在打拳、誰在打葉問的詠春拳,這是另外一個知識領域。當中有一個橋,就是葉問老師是由甄子丹扮演的,而甄子丹扮演的葉問老師是打這個拳的,你有這個橋,兩個知識就可以合二為一。

現在的問題也就是說,這對於符號AI來說很容易的事,對神經元網絡是很難的。現在很多人說要把符號AI和神經元網絡結合在一起,但是這個結合點怎麼找?實際上困難很大。深度學習隻是它的的升級版,它是非常高級的升級版。大家覺得AlphaGo打敗李世石是非常了不起的事,實際上這是遲早發生的事,因為它隻能局限在圍棋這一個網絡。同樣一個深度學習係統同時做兩件事,才算牛掰。

美國的生物統計學家Jeff Leek最近撰文指出,除非你具有海量的訓練用數據,否則深度學習技術就會成為“屠龍之術”。有些人認為他的觀點是不對的,但是我還是傾向於認為深度學習和神經元網絡需要大量的訓練樣本,把某種模式重複性的呈現出來,讓他抓到規律,整台係統才能慢慢調到很好的水平。請問前麵的數據是不是在任何一種場合都能夠獲得呢?這顯然不是那麼容易的。

哲學家柏拉圖會怎麼評價目下的機器翻譯?

伯拉圖有一個東西叫《美諾篇》,主要是以對話形式來寫他的哲學著作。《美諾篇》裏麵有一個重要的橋段,一個從未學過幾何學的小奴隸在哲學家蘇格拉底的指導下學會了幾何證明。旁邊的人反複問,你真的沒有學過幾何學嗎?怎麼證明那麼好?小奴隸說,真沒學過。旁邊人證明,這小子字都不識,希臘文字母表都背不下來。

由此引發的問題是:小奴隸的“心智機器”,究竟是如何可能在“學習樣本缺乏”的情況下獲取有關於幾何學證明的技能的呢?而後世的語言學家喬姆斯基則沿著柏拉圖的思路,問出了一個類似的問題:0-3歲的嬰幼兒是如何在語料刺激相對貧乏的情況下,學會複雜的人類語法的?——換言之,按照柏拉圖—喬姆斯基的看法,任何一種對於人類語言能力的建模方案,如果無法具備對於“刺激的貧乏性”(the poverty of stimuli)的容忍性的話,那麼相關的建模成果就不能被說成是具備對於人類語言的理解能力的。

喬姆斯基的解釋是人有先天語法結構的能力。人家問喬姆斯基,這個東西怎麼來的?他說,這是進化當中的基因突變導致的。我最近美國開議事大會,碰到喬姆斯基,他一方麵承認這肯定是進化基因突變的,但是另一方麵又否認我們可能用經驗手段去嚴格的研究語言進化的某個曆史瞬間到底發生了什麼,因為他認為我們缺乏追溯幾十萬年的語言基因突變的經驗能力。

我並不完全讚成他的觀點,但是有一點我讚成他,他正確的提出一個問題,這個問題就是機器學習主流沒有辦法解決的問題。小朋友是怎麼做到這麼小就可以掌握語法?

按照按照喬姆斯基的標準或者伯拉圖、蘇格拉底的標準,,我們是否可以認為目前基於深度學習的機器翻譯技術是能夠理解人類語言的呢?答案是否定的。

實際上,已經有專家指出,目前的深度學習機製所需要的訓練樣本的數量應當是“穀歌級別”的——換言之,小樣本的輸入往往會導致參數複雜的係統產生“過度擬合”(overfitting)的問題。也就是說,係統一旦適應了初始的小規模訓練樣本中的某些特設性特征,就無法靈活地處理與訓練數據不同的新數據。

一句話,湊數湊得太假了,以至於難以應對世界的真正的複雜性!

舉個例子,一個人說她自己很適合談戀愛,很適合和異性交往。她談第一次戀愛,兩個人如膠似漆,而且她的戀愛對象是非常奇葩的男人,非常宅,邋遢,很奇怪,別的男人對他也有意見,但是這個女人和他一拍即合。這就是過擬合。

你作為她的閨秘會擔心一件事,她和這個男人分手以後,能不能適應正常的男人?按照統計學來看,第一次戀愛成功的概率是很低,如果你第一次就過擬合了,你以後怎麼玩這個遊戲?這很麻煩,這是戀愛中過擬合的問題,和誰都特別熟,黏住誰就是誰,分不開,他什麼毛病也傳給你,以至於你不能和第二個人談戀愛。

另外一種是不擬合,就是和誰都不來電。按照機器訓練來說就是怎麼訓練都訓練不出來。一種太容易訓練出來,太容易訓練出來的問題是我現在用這組數據很容易把你訓練出來,以後真實世界中真實數據和實驗室不一樣,你能不能應付?

就語言論語言,新數據與訓練數據不同恐怕會是某種常態,因為能夠根據既有的語法構造出無窮多的新表達式,本就是一切自然語言習得者所都具備的潛能。如果我願意,我可以用大家聽得懂的漢語跟大家描述各種各樣的奇葩狀態。這是語言的特點。也就是說既有的語法允許我們構造出無窮多的新表達式。

能夠用既有的語法構造更多的新表達式,是任何一個語言習得者的能力,能夠聽懂別人用你的母語所表達的任何一種奇葩的表達式,也是一個合格語言習得者的能力,這個能力是何等的平常,但是對於機器來說是多麼的稀奇。

換言之,無論基於深度學習技術的機器翻譯係統已經通過多大的訓練量完成了與既有數據的“擬合”,隻要新輸入的數據與舊數據之間的表麵差距足夠大,“過度擬合”的幽靈就都一直會在附近徘徊。

所以從過去當中永遠沒有辦法必然的推出關於未來的知識或者關於未來我們不能有真正的知識,這是休謨哲學的相論點,他沒有用什麼擬合、不擬合的數據,因為他當時不知道深度學習。但是你會發現,過很多年,休謨的哲學問題沒有解決。

從本人的哲學立場來看,未來人工智能需要做的事情:

1.首先要在大的目標上指出通用人工智能是一個大的目的。

很多人給我說通用人工智能做不出來,我的書指出了,所有指出通用人工智能做不出來的論證是不成立的。第二個如果你相信某些人所說的,人工智能將對人類生產生活產生顛覆性的影響,而不是過去的自動化的零敲碎打的影響,隻有通用人工智能才能對未來的生活進行顛覆性的影響。因為專用人工智能不可能真正取代人的工作,隻有通用人工智能能做到。

比如家政服務員,讓機器人做,你知道家務有多麻煩嗎,家務有多難做嗎?我始終覺得做家務比做哲學燒腦,我一直覺得做家務合格的機器人比做哲學還是要更慢一點,你十個人都喊著文本都是一個文本,十個人不同家庭的打掃情況就是不同。

這個人家裏書很多,但他不希望你理得很整齊,另外一個人家裏有很多書,但是希望你理得很整齊。這個小朋友3歲,喜歡書。這個地方有小朋友13歲,很不喜歡看書。這些問題都複雜,人都要被弄崩潰,機器怎麼搞得清楚?

2.認知語言學的算法化。

3.基於意義的普遍推理引擎,而不能把推理看成形式、邏輯的事情,而要認為這和意義有關。

4.節儉性算法與該推理引擎的結合,我們的計算要從小數據出發,要體現節儉性,不能依賴大數據。

5.結合認知心理學研究加入人工情緒等新要素。

蘇格拉底:我不能教任何人、任何事,我隻能讓他們思考

“傳播知識價值,倡導獨立思考!”

微信公號:價值中國

價值中國微信全站精華搜索: 數百萬篇極具價值的經濟/商業/金融/文化類文章期待對話。微信公號中,輸入您感興趣的任意“關鍵字”,可搜索精彩的專家見解!

最後更新:2017-11-06 12:16:38

  上一篇:go 郝景芳:人工智能到來或將富者越富窮者越窮 需實現教育轉化
  下一篇:go 人工智能電視“3.0”?長虹CHiQ新品Q5K首測