26
機器人
人工智能倫理學:宇宙歸於計算?
本文轉自:渤海灣的飛天紅豬公眾號
本文是Stephen Wolfram於2016年10月14日-15日在紐約大學哲學係,腦,意識和認知研究中心舉辦的人工智能倫理學會議(Lecun, Russell等人有出席)上的講話.
關注微信:DuoDaaMath每天獲得更多數學趣文
新浪微博:https://weibo.com/duodaa
作者介紹
Stephen Wolfram, 計算機科學家,理論物理學家,數學家。早期,在英國著名的伊頓公學讀中學,但是很早就離開了學校。後來,17歲進入牛津大學聖約翰學院學習,但覺得那裏課程“太差”,於是沒畢業就離開那裏。19歲進入美國加州理工學院,第二年就拿到粒子物理博士學位,時年20歲。後創立 Wolfram Research 公司,旗下產品有著名的數學軟件Mathematica和Wolfram|Alpha等,這些軟件在數學研究與其他科學研究都應用廣泛。
正文如下:
謝邀!
要知道, 我出現在這裏(紐約大學哲學係)本身就很有意思. 我媽媽是牛津大學的哲學教授, 所以我從小就下決心不講或者研究有關哲學的任何東西. 但是這次我來了.
在具體討論AI之前, 我先談談自己的世界觀. 我的人生基本上是在研究基礎科學和開發工程技術之間搖擺. 自打有記憶起, 我就對人工智能產生了興趣. 但我從孩提時代開始研究的卻是物理和宇宙學.之後我又搞了能夠自動化數學計算的技術. 這件事情做的非常成功, 因此我開始思考是否可以麵向所有事物提出理解和計算一切的理論. 大約是1980年我開始琢磨如何建造象大腦一樣的東西, 因此研究了一點神經網絡, 但不是太深入.
就在同時, 我又對科學中也許更大的問題產生了興趣: 如何得到有關一切的普遍理論. 近代300年來占統治地位的思路是用數學和方程來描述. 但是我想在此之上走的更遠. 我意識到這個更大的問題原來可以用類似程序的思路, 來考慮計算宇宙的全部可能程序.
這導致了我個人的伽利略時刻(伽利略通過望遠鏡觀察宇宙做出了偉大發現)出現, 我通過製造我的程序望遠鏡, 一些簡單的計算程序, 其中有一條我稱作30號規則的規則(詳見:https://www.wolframalpha.com/input/?i=rule+30),能夠從無到有製造出永不可窮盡的複雜性.
(簡單解釋一下這兩張圖, Stephen 所謂的簡單計算程序, 是從一個方塊開始, 兩種顏色表示0/1狀態, 下一行的方塊是0還是1, 根據上一行最相鄰的3個方塊來決定, 這樣隻要有一共2的三次方全部8種可能的組合規則.就可以無限計算下去, 第一張圖是不同規則得到的計算結果, 可見大部分規則都沒有演化出複雜圖案, 有一些非常簡單, 稍複雜一點有類似分形的, 而其中用30號規則計算出現的圖案就是上圖, 是Stephen最喜歡的, 宣稱是自己畢生最偉大的發現之一)
當我看到30號規則時, 我意識到某種在計算宇宙——或者包括所有自然世界中普遍存在的東西出現. 這是令我們看到的現實世界如此複雜的真正秘密. 同時也是一扇窗戶呈現出原始(Raw),無約束計算的模樣. 而我們傳統意義上在工程中使用的計算都是足夠簡單也可以預期行為的。
當我們真正跳進計算宇宙中, 所遇到的事物會更加寬廣. 我的公司做了非常多的研究, 發現類似程序可以用於多種不同目的, 比如30號規則可以用來產生隨機數. 而現代機器學習也是對與傳統工程方法不同且範圍更加自由的計算模式的探索。
對一般意義上的計算宇宙我們能說什麼? 好, 考慮所有的這類程序都在做計算, 我多年前就發現了我稱之為計算等價性的原理( Principle of Computational Equivalence)——具體是說, 如果某個計算明顯不是簡單的, 它通常就會對應於某種最大化複雜性的計算. 基於這個原理可以做出非常多的推斷. 比如計算宇宙是普適的, 也應當是非決定的, 也就是我稱之為計算不可規約性(computational irreducibly).
(見上圖的結果) 你可以預期接下來會發生什麼嗎? 它或許就是計算不可規約的, 你不能提前判斷發生什麼(不存在簡單規律和模式), 隻能通過一步一步的計算過程來推導. 整個結果雖然都是決定的, 但是某種意義上確實自由的, 因為(不通過每一步的計算)你並不能預期(某個特定未來時刻)會發生什麼.
現在我們來談另外一件事情, 什麼是智能? 我們的大一統原理說, 一切都是從微小的程序(規則)計算而來的. 我們的大腦也是可以被計算等價的. 在智能和大多數計算之間並沒有明確的界限. 天氣本身沒有腦子. 但是天氣變化所涉及到的計算並不比大腦更簡單, 雖然對我們來說, 兩者的計算非常不同. 因為天氣的計算與人的目標和經驗沒有任何關聯, 隻是自己在演化自己的原始(Raw)計算。
如何來馴服計算呢? 我們必須把它和我們的目標融合起來. 而第一步就是描述我們的目標是什麼. 過去30年我就是在做這樣一件事情!
我建構了一種語言--稱之為Wolfram語言- 用來表達我們要做什麼. 這是一種計算機語言. 但是和其它計算機語言都不同. 因為它並不是用來告訴計算機每步做什麼, 而是用來建構有關計算和世界的知識. 這樣隻要我們人類用我們給出的方式描述目標, 這個語言可以讓實現目標所需的其他一切都盡可能的自動化。
其中的基本思想, 從Mathematica這些年不斷的發現和進展中來, 運轉的非常好. 它同時也是Wolfram|Alpha的內核, 在那裏處理純自然語言問題, 理解問題, 並用關於我們文明的某種精心組織好的知識和算法來回答問題. 而且, 同時, 它是非常典型的人工智能事物. 因為我們回答了十億級別的用戶提出的數以十億計的問題.
我最近有個有趣的經曆, 關於如何用我們的技術來教會孩子計算性思維. 我在給一本書寫習題, 起初的題很簡單, 類似"如何編程實現X", 隨後的問題開始複雜, 我知道怎麼用Wolfram 語言來描述, 但是不知道怎麼用英文來說. 當然這就說明了我們為什麼要花30年來構建Wolfram語言。
英文包括大約兩萬五千個通用詞匯, 而Wolfram 語言現在有大約五千條經過精心設計的基本構件(Built-in construct)——包括所有最近的機器學習進展——以及描述了百萬級不同的基於精心組織的數據的事物. 其中的思路是任何一個計算世界中的事物, 都應當可以很容易的用Wolfram 語言來描述. 最酷的是, 這真的有用。 人類, 包括孩子都可以用這種語言來讀寫, 計算機也一樣可以. 這是某種高層次的橋梁, 用來連接計算和人類在自己文化上下文中的思考.
好, 那麼關於AI呢? 技術通常是對已存在事物的發現, 並馴服事物自動達成人類的目標. AI中我們馴服的是計算宇宙中的事物. 現在, 我們身邊就有非常多可見的原始(Raw)計算. 因為自然界中這樣的事情一直在發生(想象天氣, 洋流). 我們感興趣的是如何讓它和人類的目標關聯起來.
那麼回到倫理學, 也許我們應當約束計算, 也就是AI, 隻做符合倫理學的事情. 這意味著我們需要找到某種方式來描述它.
那麼, 在人類世界, 我們做事情的方式是製定法律, 但是我們如何把法律和計算聯係起來? 或許可以發明"合法代碼"的提法. 但是今天的法律和合同都是用自然語言寫的. 在金融領域有很多簡單可計算的合同,比如說金融衍生品領域。 現在一些人又在談論基於加密數字貨幣的智能的合同.
對於大量存在的法律怎麼辦? 好, 萊布尼茨, 下個月是他逝世三百周年紀念日, 一直在講要構建一種通用的, 我們正在探討的, 能全部用計算的方式來表示的語言. 作為先驅他想的可能太早了, 但是現在正是我們該做這件事情的時候了.
上周我寫了一篇長文, 這裏總結一下, 用Wolfram 語言我們可以處理好對世間許多種不同事物如何來表示. 這些事物包括人們問Siri的各種問題. 我想我們現在已經可以提出當年萊布尼茨想要的: 通用符號話語語言來表示人類世界的一切事物.
我意識到這是一個語言構建的問題, 是的, 我們可以通過自然語言獲取線索, 但是最終會構建自己的符號化語言. 這實際上跟我最近幾十年在Wolfram語言上做的事情同類. 比如就一個單詞"加"(Plus)來說, 在Wolfram 語言中有個函數叫 Plus(加法), 和這個單詞不是一個意思. 它是一個特殊版本, 必須是一個數學意義上的加法. 同樣, 在我們設計通用的符號話語語言時, 英文中的單詞"eat"(吃)有各種各樣的含義. 我們需要一個概念, 也許同樣用 eat(吃)這個符號來代表, 但是特指可以計算的吃.
所以當我們拿到一個以自然語言表示的合同時, 為了得到一個符號化的版本, 可以用所謂自然語言理解技術, 就像我們在Wolfram|Alpha 網站處理數以十億計的請求所做的那樣, 讓人來區分歧義. 另外一種辦法也許是類似用機器學習描述圖片一樣, 但是最好的方法就是用符號形態的語言來寫. 而且我猜律師們不久以後就會這樣做.
當然, 當你有一個符號形態表示的合同時, 就可以直接用來計算, 自動驗證是否合規, 模擬預測不同的產出, 自動聚集條理化,諸如此類. 最終合同能從現實世界中自動獲取輸入, 而這些輸入天生就是數字化的, 象計算機係統處理的數據, 或者交易比特幣一樣. 這些輸入可以從各種傳感器和不同測量中來, 通過機器學習轉換成符號.
那麼, 當我們把法律表示成可計算的形式之後, 我們就可以開始告訴AI 我們想要AI怎麼做. 當然, 如果我們能把每一件事情都分解成基本原則會更好, 類似阿西莫夫的機器人三大守則. 或者功利主義之類的東西。
但是我不認為這樣的事情會發生. 我們最終想做的是發現關於計算的完美約束. 但是計算在某種意義上是無限“向外開荒”(wild)的東西. 哥德爾完備性定理已經證明了. 就象我們看待整數, 通過建立公理來約束它們, 並且讓它們按照我們想讓它們做的那樣做. 哥德爾指出沒有有限的公理集合可以做到這一點。任何一個你選定的公理集合, 裏麵不會隻包括通常意義的整數, 還必然包括某些其它“野外”(wild)的東西.
而計算不可規約現象意味者這件事情的更一般版本. 基本上給定任何法律集合, 必然會存在某些“非預期的結論”. 從人類法律的發展曆史來看這並不稀奇, 關鍵點是從理論上就沒辦法規避。 這是計算宇宙普適存在的。 現在我想很清楚AI在今後的世界中會越來越重要——最終會控製有關人類事物的所有基礎設施, 就象現在的政府. 或許也像政府一樣, 該做的是建立AI的憲法來規範AI應當怎麼做.
這個AI憲法會是什麼? 它應當基於現實世界的一個模型, 而不可避免是不完美的. 這樣可以說在各種不同條件下該如何做. 最終所做的是讓對計算的約束正好與我們的目標一致。 那麼這些目標又是什麼? 我不認為現在就能給出合適的答案. 事實上, 我們列舉目標就象在計算宇宙中列舉程序一樣。不存在一個能抽象出來的挑選準則。
但是我們還是可以做出選擇, 因為我們有特定的生物學, 有特定的基於文明和文化的曆史. 這讓我們從各種不同的不可規約計算中來到此處, 我們隻處在計算宇宙的某個點上, 對應者我們現有的目標。
人類的目標在曆史進程中可以看的很清楚, 是一直在演化的. 我猜測今後會演化更多. 我認為我們的意識不可避免的會和技術越來越多的融合. 最終我們的整個文明將終結於一個類似包含千億計的人類靈魂上傳的盒子.
那麼接下來的大問題是, 他們會選擇這樣做嗎? 或許我們現在都沒有語言來描述這個問題的答案. 讓我們上溯到萊布尼茨的時代, 我們可以看到所有的現代的概念當時都還沒有成形. 而當我們看看現在機器學習或者定理證明係統的內部, 應當可以謙卑的看到如此之多的概念和它們的有效形式尚未被我們當前的文化吸收.
以我們當下的視角來看, 那些未來沒有實體的虛擬靈魂就像是在玩一個永遠不停的遊戲. 但是他們可能隻是一開始在我們的現實宇宙的模擬中操作, 隨後他們就會在計算多重宇宙的多種可能宇宙之間進行探索。
但是從某些層麵來說, 他們所做的也隻是計算—— 就計算等價性原則來來說, 一個複雜計算本質上與其它任何複雜計算等價. 這有點讓人失望, 我們的驕傲未來將終結於計算等價性, 或者說平淡的物理, 甚至是微小的30號規則.
當然, 這隻是關於我們並不是本質上不同的一群的一個很長的科學故事的擴展. 我們無法預期我們能夠達到的終極. 我們無法定義一個終極目標, 或者終極倫理學, 某種意義上, 我們隻能被我們的曆史和現實的細節所包圍.
不存在一個簡單的原理可以在AI憲法中給我們提供想要的避風港. 將會有大量的細節對應於我們自己的曆史和現實的細節. 而第一步隻是要搞明白如何來表示這些細節. 我認為這正是我構建的符號話語語言。
還有, 是, 過去30年,我正好在做這種建造框架的事情, 我更傾向於用它,也知道如何用它來構建我們的AI憲法.
所以我最好不要再繼續談哲學. 先回答一些問題吧.
關注微信:DuoDaaMath每天獲得更多數學趣文
新浪微博:https://weibo.com/duodaa
最後更新:2017-08-26 09:18:48