546
機器人
人工智能眼中的世界,為何如此詭異?
【天極網家電頻道】從曼努埃拉·維羅索(Manuela Veloso)位於布魯克林一棟寫字樓19層的辦公室窗口向外望出,美景動人心魄——湛藍的天空、紐約港和自由女神像。然而此刻,吸引我們目光的卻是對麵大樓毫無特色的窗玻璃。
從對麵的窗戶裏,我們可以看到椅子、桌子、台燈和文件,但它們看起來有些不對勁;因為它們並不真的在那裏。它們的實物實際上位於我們這一側——很有可能就在我們所在的大樓。午後明麗的陽光照亮了玻璃,將窗戶短暫地變成了鏡子。於是,我們就看到了半空中被陽光照亮的辦公用品,虛無飄渺,絲毫不受地心引力的束縛。
曼努埃拉·維羅索是卡內基·梅隆大學計算機科學和機器人技術專業的教授,我正在和她討論機器如何感知和思考——一個比我預想的難解得多的話題。“機器人怎樣才能發現這是倒影呢?”她示意窗玻璃上的光影,“諸如這樣的事情,就是對機器來說困難的事情。”
近年來,人工智能已經以無情的速度攻克了很多難題。在過去幾年中,一種以高效著稱的人工智能——“神經網絡”——已經在一些領域裏趕上、甚至超越了人類,包括研發新藥,挑選最佳工作候選人,甚至還有駕駛汽車。神經網絡的構造模仿了人類大腦,現在,它(通常)已經能夠辨別出文章的好壞,並且(通常)能以相當高的精度從圖片中分辨出目標物體。神經網絡的應用日益廣泛,不僅在隨處可見的日常領域中,比如穀歌的搜索引擎、亞馬遜的推薦目錄、臉書的好友動態和垃圾郵件的過濾,還有軍事、金融、科研、比人類駕車更靠譜的自動駕駛等重要工作。
神經網絡有時會犯一些人們可以理解的錯誤(的確,窗戶裏的桌子看起來非常真實;甚至連我也很難看出它們隻是倒影),但另外一些難題,卻會讓它們給出讓人難以理解的回答。神經網絡的運作方式,是執行算法——關於如何完成任務的指令。算法當然是由人類寫成的,但有時,神經網絡會得出十分詭異的結果:不正確,但也不是人類能理解的那種錯誤。事實上,這些運行結果看起來簡直像是外星生物的傑作。
這種詭異的運行結果並不多見,但它們也並非隨機差錯。最近,研究人員已經設計出了可靠方法,能讓神經網絡一遍又一遍得出這種詭異的非人類結果。這表明我們不應該假設我們的機器會用我們的思維方式思考。神經網絡的思維方式是不同的。但我們並不知道到底有何不同,或者究竟為何不同。
就算我們現在還沒到依賴神經網絡來料理家務、駕車出行的程度,這個念頭也相當令人不安。畢竟,我們對人工智能的依賴越多,就越需要它們具備可預測性,尤其是在可能的失靈方麵。如果不明白機器是怎麼做出一些怪異的舉動的,以及它們為什麼會這麼做,我們就不能確保這類事件不會再次發生。
不過,這種偶爾的詭異機器“想法”或許也是人類學習的好機會。在接觸到外星智能之前,神經網絡或許是我們所知的最強有力的人類以外的思考者。
神經網絡感知與推理的方式與人類的差異或許能向我們揭示,在人類的物種限製之外,智能是如何運作的。伽利略向我們展示了地球在宇宙中並非獨特,達爾文向我們證明了人類在生物中亦非例外。阿爾伯塔大學的人工智能研究者約瑟夫·莫達伊爾(Joseph Modayil)認為,計算機或許也會給智能領域帶來類似的顛覆。“人工係統向我們展示了智能的無限可能性,”他說。
然而,我們首先要確保自動駕駛車輛不會把校車錯認成橄欖球隊服,也不會把照片中的人類標記成大猩猩或者海豹(穀歌的一個神經網絡最近就犯了這個錯誤)。過去幾年來,許多計算機科學家癡迷於這個問題以及可能的解決方案,但他們仍未找到。
的確,校車和橄欖球服都有黃黑相間的條紋,但也隻有AI會把它倆搞混吧……
傑夫·克魯(Jeff Clune)是懷俄明大學計算機科學係的助理教授。偶遇了幾次神經網絡的怪異行為後,他在最近開始了相關領域的研究。“我還不知道有誰能很好地理解為何會發生這樣的事。”他說。
去年,在一篇名為《深度神經網絡很好騙》1(Deep Neural Networks Are Easily Fooled)的文章中,克魯與他的合著者,阮昂(Anh Nguyen)和傑森·約辛斯基(Jason Yosinski)宣布他們製造出了一個用於識別物體的成功的係統,而該係統99.6%確信左圖是一隻海星,同樣99.6%確信右圖是隻獵豹。
反過來,另一組由來自穀歌、臉書、紐約大學和蒙特利爾大學的研究者組成的團隊也開發了一個神經網絡係統,該係統認為左圖是一隻狗,而右圖(僅在左圖的基礎上略微改變了像素)是一隻鴕鳥。
右邊的狗就是研究人員們所說的“對抗樣本”(adversarial examples)的一個例子2。這些圖片與分類正確的圖片僅有細微的差異,但足以讓先進的神經網絡得出令人失望透頂的判斷。
神經網絡是機器學習的一種形式,它通過分析數據而得出結論。而機器學習不僅僅被用於可視化任務,普林斯頓大學信息技術政策中心的博士後研究員索倫·巴羅卡斯(Solon Barocas)說。他指出,在2012年,一個為美國教育考試服務中心(ETS)評估論文的係統將下述文字(由前MIT寫作教授萊斯·普爾曼(Les Perelman)創作)判定為好文章:
在當今社會,大學的形象模煳不清。我們需要它來學會生存,亦需要它來學會愛。更重要的是,若非沒有大學,世界上的大多數學習將會變得臭名昭著。然而,大學學費卻不可勝數。世界各國麵臨的重要問題之一便是如何削減大學學費。一些人認為大學學費的攀升是由於學生對大學的物質條件期望過高,另一些人則認為高額學費是大學體育造成的。而現實是,支付給助教的過高的工資導致了高昂的大學學費。
華麗的辭藻和優雅的句式也不能掩蓋真正觀點和論據的缺失(助教明明窮哭了好嗎!——編輯)。盡管如此,機器卻給了這篇文章打出了完美的分數3。
這些荒唐的結果並不能用個別係統偶爾抽風來煳弄過去,因為能讓一個係統跑偏的例子們也會對其他係統造成同樣的結果。讀過《深度神經網絡很好騙》後,人工智能研發公司Vicarious的聯合創始人迪利普·喬治(Dileep George)很好奇別的神經網絡會作何反應;,他的蘋果手機上剛好有個應用程序——Spotter,一個用於識別物體的神經網絡,現在已經停止更新了。他把手機對準曾被克魯的係統識別為海星的波浪線。“手機說它是海星。” 喬治說。
Spotter所看到的,是手機攝像頭拍到的照片,它和原始圖像在很多方麵有所不同:光線條件和角度都有差異,而且還拍到了紙上周圍的一些像素,不是原圖的一部分。然而神經網絡得出了同樣的有如外星人一般的解讀。“這一點很有趣,”喬治評價,“這說明這種詭異的判斷具有高度的穩健性。”
實際上,做出“海星”和“獵豹”論文的研究者們已經確保了他們的愚弄圖片在不止一個係統裏整蠱成功。穀歌的克裏斯蒂安·賽格蒂(Christian Szegedy)和他的同事們寫道4:“一個為某一模型生成的樣本,通常也會被其他模型錯誤歸類,即使它們有著完全不同的架構。”或者使用的是完全不同的數據集。“這意味著這些神經網絡對校車長什麼樣有著某種共識,”克魯說,“但它們的共識與人類辨認校車的標準大相徑庭。這一點讓很多人大吃一驚。”
當然,任何收集和編程數據的係統都可能認錯東西。這也包括人類的大腦,它可以將早餐吐司上的圖案看成耶穌肖像。但是當你從某個圖案中看到了並不存在的東西時——心理學家通常稱之為幻想性視錯覺(pareidolia),其他人也都能理解為何你會得出這樣的錯誤結論。這是因為我們共享著同一個認知和辨認物體的神經係統。
在完美的世界裏,我們的機器也會和我們共享這個係統,我們便能像理解彼此一樣理解它們。然而,神經網絡產出的那些古怪結果表明,我們並不生活在那樣的世界裏。巴羅卡斯說,這樣的情況會讓我們意識到,算法的“思考”過程並非人類思維的複製品: “當係統按照不同於人類的方式運行時,它們的幻想性視錯覺也與我們的不同了。”
巴卡羅斯補充道,寫下這些算法的人希望“讓機器是人化的,希望它們解釋事物的方式與人類的思維方式一致。但我們必須做好這樣的心理準備——即使機器做和人類一樣的事,做法也會和人類截然不同。”
當然,把狗認成鴕鳥的AI對人類並不構成威脅,在許多書麵測試中,機器也能正確打分,能夠愚弄神經網絡的圖片似乎也不太容易產生。但一些研究者認為,這樣的圖片一定會出現的。克魯覺得把校車當做橄欖球隊服這種事情即使隻發生了一次,也已經太多了:“如果你恰好坐在這樣一輛會把校車認成衣服的自動駕駛汽車上就更是如此。”
目前,我們還無法理解神經網絡是如何得出這些令人費解的結論的。計算機科學家們最多隻能觀察運行中的神經網絡,記錄下一個輸入值會如何觸發內在運行單元的回應。這比什麼都不知道強,但離對機器內部到底在發生什麼的嚴謹數學解釋還差得很遠。換句話說,這個問題的難點不僅在於機器同人類的思維方式不同;而且還在於人們無法還原機器思考的過程,從而找到這種不同背後原因。
最後更新:2017-10-08 08:07:42