閱讀231 返回首頁    go 阿裏雲 go 技術社區[雲棲]


由深度神經網絡想到的人生意義和哲理


0?wx_fmt=png

 ◆ 

導讀


幾周前,我經曆工作項目的調動,恰好給了我空餘時間重拾那些很久沒有碰過的感興趣的話題。機器學習是我興趣列表中的第一項。這是一個已經廣泛滲入科技領域的話題,但我對其一無所知。僅幾周的泛讀,已經讓我相信我們正加速朝向一個通用人工智能的時代。隨著物聯網(IOT)設備的快速普及產生了極大量數據,在這方麵深度挖掘的進步將會保證這一未來越來越近。


但是基於這篇文章的論述範圍,我將把話題限製在討論以下假設:圍繞在我們周圍的所有事情構成一張深度神經網絡,以及這一觀點帶來的形而上學的意義。


 ◆ 

遷移學習


作為一個機器學習(ML)新手,我第一次接觸到機器學習的經曆是相當不可思議的。穀歌的新機器學習庫(稱為TensorFlow)讓我有機會搭建一個深度神經網絡(DNN)模型,它能在幾個小時內通過從穀歌及我的MacBook Pro中抓取的圖片來標記房子中不同房間的圖像。我為這個全新的神奇力量感到驚喜,當夜興奮到無法入睡。多讀了一些這方麵的資料後,我最初的興奮漸漸平息下來,而一個關鍵詞“遷移學習”這個有趣的概念留在了我的腦海裏。如穀歌所說的那樣——


遷移學習是指利用在解決另一個問題時搭建的模型的技術。我們將會保留對已有模型的某些層,從而讓優化後的新模型可以完全解決當下的新問題。從頭搭建深度學習可能需要數天,但遷移學習可以在比較短的時間內實現。”


“深度學習”其名來源於深層神經網絡(DNNs)這個算法和應用的學習。之所以“深”,是因為神經網絡有很多層。每層神經網絡(或一組神經網絡)創建的輸出,可以作為下一層的搭建基礎。因此,在我上述列舉的情形中,穀歌預先設置的圖像模型已經搭建了可以識別如邊界、角等圖像元素的低級層次,以及可以識別形狀的中級層次。我通過多次迭代訓練而得到一個創造最高價值的輸出層,因為隻有它能最終識別和標記給定的圖片。


 ◆ 

我們的大腦好比深度神經網絡


0?wx_fmt=png


以上有趣事情發生的幾天後,我看了Ray Kurzweil在“加速的未來 (The Acceleration Future)”中很棒的演講,演講中他提到,人類大腦就像深度神經網絡(DNN)模型的識別者,並且我們大腦的某些部分與蜥蜴的大腦是完全一樣的。


結合“遷移學習”的概念,所提出的深度神經網絡(DNN)的概念作為一個重要的架構,可以解釋物種內一代一代的遷移學習,以及物種間的遷移學習。(我知道神經網絡的架構顯然是由研究大腦本身而啟發得出的,但是這裏的關鍵概念是“深度”)。


因此我們的大腦是一個(或一係列)深度神經網絡,這個網絡基於我們進化而來的前一個物種的學習模式搭建而成。我們應該記住,這種學習模式從基因上來看是從我們的祖父和其他祖先那轉移過來的。除了關於對世界的了解和生存秘訣,這些模式可能也包含了我們在超過幾百萬年的試驗中不斷調整而形成的是非觀(道德層麵)。


甚至,在一個人的一生中,學習看上去也是一個深度學習網絡的創造過程。在學習階段,我們的大腦努力運作,創造可以持續輸出預期結果(如:彈好吉他)的正確模式(通過引發不同種類的神經模式)。一旦深度學習網絡模式被創建,在實際生活場景下運用訓練過的模型(如:用吉他上彈奏新的歌曲)將是更快的。這也能解釋為什麼學習過程本身是很難的,但一旦習得,技能很容易被運用出來。


於是,我們可以將經曆看做我們眾多的神經網絡在深度上的發展。


創造力也有可能是“遷移學習”的結果。一種極大的可能性是,創意工作者們利用在其他領域訓練過的基礎模型,同時保持他們的“深度神經網絡”的最頂層。從另一方麵來說,某一特別領域的專家已經將他們的深度神經網絡(DNN)訓練得更加深入,就為了在極端的細節上處理一個特殊問題。


 ◆ 

什麼讓深度神經網絡變得特別


我認為深度神經網絡的一個重要特征是他們同時具有機器處理能力和數據存儲能力。因此當能量流通過他們時,他們是活的機器,指引能量去創造動態的模式,從而為了達到預期的結果而不斷優化。不僅如此,當能量停止流動時,他們變成靜態的模式,我們稱之為模型(深度神經網絡模型)。


那麼,我們也是深度神經網絡(DNN)嗎?


有一個有趣的概念是這樣的,把種子(可以是植物的種子,或者動物的“種子”等)看做深度神經網絡(DNN)模型。那麼本質上,種子就是在代際之間傳遞訓練過的模型(學習和存儲了的DNN模式),其中每一代都嚐試著在上一代模型的基礎上,通過提供更多的訓練和優化,從而使自身在所處的環境中繁榮興旺,進而改善模型。


想得更遠一步——如果種子是模型,那麼我們或許就成了機器。


 ◆ 

模型(種子) + 最佳的環境 + 能量 = 一個基於深度神經網絡(DNN)的機器


這樣看來,從種子成長起來的植物就是訓練模型的具體表現。這種物理的表現本質上是一個DNN深度學習機器,它進行新的試驗,為了改進那個創造了自身的潛在模型而向當前環境學習。而後,如果機器發現了某些能夠幫助下一代更好地適應環境的新信息,那麼就會給神經網絡增加新的層。


如果由此更深入探索,就有可能認為,圍繞在我們身邊的一切事物其實都是建立在空間和時間上的一個深度神經模型。實際上,整個宇宙有可能就是一個巨大的DNN機器。這些DNN機器雖然理論上是建立在彼此的基礎上的(一層層地),但實際上可能也是從屬於彼此的。我們是DNN裏的DNN裏的DNN。這個理論唯一的問題在於我們還不能明確宇宙這個巨大的DNN機器最終優化的目標是什麼。因為如果可以找到這個目標,或許我們就可以借此對宇宙萬物存在的目的有一個更清晰的理解。


 ◆ 

生命存在的意義


如果我們正是存在於其他DNN機器內部的DNN機器(就好比地球),那麼我們存在的意義是什麼?我覺得我們生命的意義可能不會跟我們大腦裏的電信號的意義有什麼太大的差異。這個目的就是流動,無論這個流動的方向是否會成為最後勝利的神經網絡模式(或者說模型)的一部分。我們的目標也不會跟水流中的水珠有太大的差異。我們作為個體是沒什麼所謂的。有所謂的是我們所有人作為一個集體,在宇宙深度神經網絡的這一個層麵上所自然而然發生的行為(神經模式)。物種、社會結構、文化、宗教、國家、語言,像荒蕪的沙漠和豐饒的雨林這樣的環境,本質上都是一種自我優化的試驗性動態模式,而且它們一起服務於一個自然發生的、超大的、全宇宙的、為了“某個目的”自我優化模式。我仍然不明確這“某個目的”究竟是什麼。但是如果缺少了這個我們依存的巨大機器,我們每個個體的存在將是無意義的。


 ◆ 

展望


這是關於這個思路的第一份初稿,雖然距離清晰明確的答案還有很長的一段距離,但是現在有這樣幾個原理是跟這個緊密內嵌在這個思路當中的:


1.深度神經網絡為解釋我們存在的機製提供了一種可理解的框架


2.我們身邊的所有事物(包括我們自己)是一種自身的試驗或者是另一個試驗的一部分。這種試驗會持續直到找到所需優化問題的一個最優解。一旦試驗成功,這個模型就被存儲起來,等待下一代在此基礎上進一步提升。


3.深度神經網絡需要不斷的試驗和報錯耗費大量的時間和精力來獲得最優解。模型的使用本身是一個更高效的過程,因為數據隻需要通過一個確定的路徑即可,即使這個路徑在結構上非常複雜,但因為這隻是一條路徑,所以可快速通過。


4.事物的錯綜複雜性來源於各個模型總是建立在彼此的基礎上,而後形成其他模型的基礎這一事實。複雜模型是更簡單模型的分層集合。


5.行為是自然發生的。單個神經元/單位致力於某些後天取得的,來源於它們的內在模型的規則,但是不會意識到它們是在為一個怎樣的總體目標做出貢獻。


有了上述的這幾個概念,我接下來將計劃將這個模型應用到一些形而上學的概念上去,例如:因緣、生與死、道德等等,看看能否發現有一些有趣的事情。

原文發布時間為:2016-10-24

本文來自雲棲社區合作夥伴“大數據文摘”,了解相關信息可以關注“BigDataDigest”微信公眾號

最後更新:2017-06-01 13:32:16

  上一篇:go  馬雲清華EMBA演講:一個人要成功靠情商 要不敗靠智商
  下一篇:go  餐飲外賣業為例-數據化運營操作指南(附29頁PDF下載)