閱讀839 返回首頁    go 阿裏雲 go 技術社區[雲棲]


深度 | 區塊鏈對人工智能的變革:去中心化將帶來數據新範式


近年,從圍棋到人類水平的語音識別,人工智能(AI)研究者終於在他們幾十年一直努力探索的領域取得了突破。取得突破進展的關鍵一點是研究者們可以收集巨量的數據並「學習」這些數據,從而將錯誤率降低到可接受範圍以內。


簡而言之,大數據大為改觀了人工智能的發展,將其推到一個幾乎難以置信的高度。


區塊鏈技術同樣能夠變革人工智能——當然以它自己的特定方式進行。部分將區塊鏈用於人工智能方式目前還很單一,比如在人工智能模型上進行審計跟蹤(audit trail)。有些應用幾乎是難以置信的,比如擁有自己的人工智能——人工智能去中心化自治組織(AI DAO)。這些都是發展的機會。這篇文章將具體探討這些應用。


作為藍海數據庫的區塊鏈(blockchain)


在討論這些應用之前,我們先來了解一下區塊鏈與傳統大數據的分布式數據庫(比如 MongoDB)之間的差異。


我們可以將區塊鏈視為「藍海」數據庫:它們逃離了現有市場上有鯊魚競爭的「紅海」,而是沒有市場競爭的藍海。藍海的著名例子是視頻遊戲主機 Wii(妥協了原始性能,但添加了新的互動模式),或 Yellow Tail 葡萄酒(忽略了葡萄酒愛好者矯揉造作的繁複規範,使葡萄酒更容易被啤酒愛好者接受)。


根據傳統的數據庫標準,傳統的區塊鏈(如比特幣)是糟糕的:低吞吐量、低容量、高延遲、糟糕的查詢支持等。但在藍海思維中,這是可以接受的,因為區塊鏈引入了三個新特性:去中心化/共享控製、不變性/審計跟蹤和本地資產/交換。受比特幣啟發的人們樂於忽視傳統的以數據庫為主的缺點,因為這些新的好處有可能以全新的方式影響整個行業和社會。


這三個新的「區塊鏈」數據庫特征對於人工智能應用也有潛在的借鑒意義。但是大多數實際的人工智能工作涉及大量的數據,如大數據集訓練或高吞吐量流處理(stream processing)。因此,對於區塊鏈在人工智能領域的應用,需要具有大數據可擴展性和查詢的區塊鏈技術。像 BigchainDB 這樣的新興技術及其公共網絡 IPDB(Internet Pinball Machine Database)正是如此。這使得獲得區塊鏈的好處時不再需要舍棄傳統的大數據數據庫的優點。


人工智能區塊鏈的概述


大規模的區塊鏈技術解鎖了其在人工智能應用上的潛力。從區塊鏈的三點好處開始,我們來探討一下這些潛力。


c4edaea08e8875eda7f54dd1ae38b29760b5c2c4

這些區塊鏈的好處為人工智能實踐者帶來了以下機會:


去中心化/共享控製激勵了數據共享:


(1)帶來更多的數據,因此可以訓練出更好的模型。

(2)帶來新的定性數據,因此新的定性模型。

(3)允許共享控製人工智能的訓練數據和模型。


不變性/審計跟蹤:


(4)為訓練/測試數據和模型提供了保證,提高數據和模型的可信度。數據也需要聲譽。

本地資產/交換:

(5)使訓練/測試數據和模型成為知識產權(Intellectual Property/IP)資產,這可以帶來去中心化的數據和模型交換。能更好地控製數據的上遊使用。


還有一個機會:(6)人工智能與區塊鏈解鎖人工智能去中心化自治組織(AI DAO/Decentralized Autonomous Organizations)的可能性。這些人工智能可以積累財富。在很大程度上,它們就是軟件即服務(Software-as-a-Service)。


區塊鏈還可以以更多的方式幫助人工智能。反過來,人工智能可以有許多方法幫助區塊鏈,如挖掘區塊鏈數據(例如 Silk Road 調查)。這是另外的討論話題: )


許多這些機會是關於人工智能與數據的特殊關係。讓我們先來探討一下。在此之後,我們將更詳細地探討區塊鏈在人工智能領域的應用。


人工智能 & 數據


在這裏,我將描述現代人工智能為了產生好的結果是怎樣利用大量數據的。(雖然不總是這樣,但它很常見並值得描述。)


「傳統」人工智能 & 數據的曆史


當我在 90 年代開始做人工智能研究時,一個典型的方法是:


  1. 找到一個固定的數據集(通常很小)。

  2. 設計一種算法來提高性能,例如為支持向量機分類器設計一個新的核函數,以提高 AUC 值。

  3. 在會議或期刊上發表該算法。「最小可發表的改進程度」隻需要相對提高 10%,隻要你的算法本身足夠花哨。如果你的提高程度在 2 倍-10 倍 之間,你可以發表到該領域最好的期刊了,特別是如果算法真的很花哨(複雜)的話。


如果這聽起來很學術,那是因為它本身就很學術。大多數人工智能工作仍然在學術界,雖然有實際的應用場景。在我的經驗中,許多人工智能子領域中都是這樣的,包括神經網絡、模煳係統(fuzzy system)、進化計算(evolutionary computation),甚至不那麼人工智能的技術,如非線性規劃或凸優化。


在我第一篇發表的論文《Genetic Programming with Least Squares for Fast, Precise Modeling of Polynomial Time Series》(1997)中,我自豪地展示了我新發明的算法與最先進的神經網絡、遺傳編程等相比在最小的固定數據集上有最好的結果。


走向現代人工智能 & 數據


但是,世界變化了。2001 年,微軟研究人員 Banko 和 Brill 發表了一篇有著顯著成果的論文。首先,他們描述了大多數自然語言處理領域的工作基於小於 100 萬字的小數據集上的情況。在這種情況下,對於舊/無聊/不那麼花哨的算法,錯誤率為 25%,如樸素貝葉斯(Naive Bayes)和感知器(Perceptron),而花哨的較新的基於記憶的算法(memory-based algorithms)實現了 19%的錯誤率。這是下麵最左邊的四個數據點。




到目前為止,還沒有什麼讓人驚訝的。但是,Banko 和 Brill 揭示了一些不同尋常的東西:當你添加更多的數據——不僅僅是一點數據,而是多達數倍的數據——並保持算法相同,那麼錯誤率會持續下降很多。到數據集大到三個數量級時,誤差小於 5%。在許多領域,這是 18%到 5%之間的差異,但是隻有後者對於實際應用是足夠好的。


此外,最好的算法是最簡單的;最糟糕的算法是最花哨的。來自 20 世紀 50 年代的無聊的感知器算法正在擊敗最先進的技術。


現代人工智能 & 數據1a7ad5d962129bf95338e283888c8525335745a6


Banko 和 Brill 並不是唯一發現這個規律的人。例如,在 2007 年,穀歌研究人員 Halevy、Norvig 和 Pereira 發表了一篇文章,顯示數據可以如何「不合理地有效」跨越許多人工智能領域。


95e7d5bdcefcc0d6f24e654ec77879f0cdfee75f

這就像原子彈一樣衝擊了人工智能領域。


數據才是關鍵!


於是收集更多的數據的競賽開始了。需要大量的努力才能獲得好數據。如果你有資源,就可以得到數據。有時甚至可以鎖定數據。在這個新世界裏,數據是壕溝,人工智能算法是一種商品。出於這些原因,「更多數據」是穀歌、Facebook 等公司的關鍵。


「越多數據,越多財富」——每個人


一旦你了解這些動態,具體行動就有了簡單的解釋。穀歌收購衛星成像公司不是因為它喜歡衛星圖像;而穀歌又開放了 TensorFlow。


深度學習直接適用於這種情境:如果給定一個足夠大的數據集,它能弄清楚如何獲取相互影響和潛在變量。有趣的是,如果給予相同的大規模數據集,來自上世紀 80 年代的反向傳播神經網絡有時能與最新的技術媲美。參考論文《Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition》。所以說數據才是關鍵。


作為一個人工智能研究員我自己成熟的年齡是類似的。當我遇到現實世界的問題時,我學會了如何吞下我的驕傲,放棄「炫酷」的算法,僅僅滿足能夠解決手頭上問題,並學會了熱愛數據和規模。我們將重心從自動化的創意設計轉向了「無聊」的參數優化;同時當用戶要求我們從 10 個變量增加到 1000 和變量時,我們在匆忙應對中變得不那麼無聊——我的第一家公司 ADA(1998–2004)的情況就是這樣。我們將重心從華麗的建模方法轉移到超級簡單但可完全擴展的機器學習算法(如 FFX);當用戶要求從 100 個變量增加到 100000 個,從 100 億蒙特卡洛樣本增加到 10 億(有效樣本),我們同樣不無聊——這發生在我的第二家公司 Solido(2004—至今)。即使是我第三家也是目前的公司的產品 BigchainDB,也體現了對規模的需要(2013—至今)。擴展功能,擴大規模。


機會 1:數據共享→更好的模型


總之:去中心化/共享控製能促進數據共享,這反過來又帶來更好的模型、更高的利潤/更低的成本/等。闡述如下:

 f886c713dc49ba5cedc91e0ff5c7e85c8827d0f3

人工智能熱衷數據。數據越多,模型越好。然而,數據往往是孤立的,尤其是在這個新世界裏,數據可能是難以逾越的鴻溝。


但是如果有足夠的正麵效益,區塊鏈鼓勵傳統的獨立體間數據共享。區塊鏈的去中心化本質鼓勵數據共享:如果沒有單一的實體控製存儲數據的基礎設施,共享就會有更少的衝突。之後我會舉出更多好處。


數據共享可能發生在一個企業中(如在區域辦公室)、一個生態係統內(如一個「財團」數據庫)或整個星球(例如共享行星數據庫,即公開區塊鏈)。


下麵給出了每個對應的例子:


  • 企業內:使用區塊鏈技術來合並來自不同區域辦公室的數據,因為它能降低企業審核自己數據的成本,並和審計員共享數據。隨著新的數據到位,企業可以建立人工智能模型,例如,相比以前隻建立在區域辦公室水平的模型,新模型能更好地預測客戶流失的模型。每個區域辦公室的「數據集市」?

  • 生態係統內:競爭對手(例如,銀行或唱片公司)過去永遠不會分享他們的數據。但現在可能坦率地展示,結合幾個銀行的數據,可以做更好的模型以預防信用卡欺詐。或者供應鏈機構通過區塊鏈共享數據,對供應鏈中更早地數據使用人工智能,可以更好地確定在供應鏈中導致失敗的根本原因。例如,大腸杆菌的菌株究竟出現在哪裏?

  • 在整個星球範圍內(公共區塊鏈數據庫):考慮不同生態係統之間的數據共享(例如能源使用數據+汽車零部件供應鏈數據);或個人參與者在一個行星尺度的生態係統(如網絡)。更多的數據來源可以改善模型。例如,在中國一些工廠能源使用量的峰值可能與非法汽車零部件花了一天在市場運輸有關。總的來說,我們看到公司匯總數據,進行洗白,重新包裝並出售的行徑;從 Bloomberg 終端到幾十(或幾百個)初創企業通過 http APIs 銷售數據。我在稍後闡述這一未來。


敵人們共享他們的數據來喂養一個人工智能。2016 多麼有趣!


機會 2:數據共享→新模型


在某些情況下,當獨立的數據被合並,你不隻是得到一個更好的數據集,還得到一個新的數據集。這能帶來全新的模型,從中你可以收集新的見解、進行新的業務應用。也就是說,你可以做一些你以前不能做的事情。


這裏有一個用於識別鑽石欺詐例子。如果你是一家提供鑽石保險的銀行,你想開發一個識別鑽石是否欺詐的分類器。在地球上有四個值得信賴的鑽石認證實驗室(當然取決於你問誰)。如果你隻能訪問其中一個實驗室的鑽石數據,那麼你就看不到其他三家的數據,你的分類器可能很容易把其他家的鑽石標記為欺詐(見下圖,左)。你的誤報率會使你的係統不可用。


相反如果區塊鏈促進四個認證實驗室共享他們的數據,你就有所有的合法數據,從利用它們你將建立一個分類器(右下)。任何輸入的鑽石,例如在 eBay 上看到,將遍曆係統,並與分類器中的每一類進行比較。該分類器可以檢測真實的欺詐行為,避免誤報,從而降低誤報率,使保險供應商和認證實驗室受益。這可以簡單地作為一個查找框,即不需要人工智能。但使用人工智能進一步提高了它,例如基於顏色、克拉預測價格,然後用「價格和價值的接近程度」作為主要欺詐分類器的輸入。


215708961662d878f6df034dae11b49aed802073

這裏的第二個例子是,去中心化係統中的一個適當的 token 激勵機製(token-incentive scheme)可以激勵先前未標記的數據集得到標記,或者是以一個更經濟的方式進行標記。這基本上就是去中心化的 Mechanical Turk(亞馬遜的眾包服務平台)。有了新標簽,我們就得到了新數據集;我們使用新數據集進行訓練以獲得新模型。第三個例子是,token 激勵機製可能會導致來自物聯網設備的直接數據輸入。這些設備控製數據並可以將其交換為資產,比如能源。同樣地,這個新數據可能會帶來新模型。


囤積 vs 分享?此處的兩個相反動機之間有一個緊張關係。一個是囤積數據——即「數據是新護城河」的觀點;另一個是共享數據,為了得到更好的/新的模式。分享行為必須要有一個超過「護城河」效益的足夠驅動力。技術驅動力是得到更好的模式或新的模式,但這個驅動力必須要有商業價值。可能帶來的利益包括降低原材料或供應鏈中的保險儲蓄詐騙;將 Mechanical Turk 作為賺錢副業;數據/模型交換;或是對抗強大的核心玩家的集體行動,就像唱片公司合力對抗蘋果的 iTunes 一樣,等等;它需要創造性的商業策略。


中心化 vs 去中心化?即使一些組織選擇分享數據,他們也可以在無需區塊鏈技術的情況下這樣做。例如,他們可以簡單地將其囤入 S3 實例中並提供出 API。但在某些情況下,去中心化帶來了新的好處。首先是基礎設施的直接共享,這樣共享聯盟中的任一組織就不會自己控製所有的「共享數據」。(這在幾年前是一個主要的障礙,那時唱片公司嚐試過為一個公共注冊係統而合作。)另一個好處是讓數據 & 模型轉變為資產變得更加容易,然後這樣可以進行外部授權以獲利。我下文會詳細闡述這一點。


如前所述,數據 & 模型共享會發生在三個層次:在一家企業內部(跨國公司的情況比你想象的要難);在一個生態係統或聯合體中;或在這個星球中(相當於成為一個公用事業)。讓我們更深入地探索這個行星尺度的分享吧。


機會 2A:行星層次的新數據 → 行星層次的新見解


整個星球層麵的數據共享可能是最有趣的。讓我們進一步深入這個問題。


IPDB 是全球範圍的結構化數據,而不是零碎的。將萬維網視為互聯網上的文件係統;IPDB 是其數據庫副本。(我認為我們沒有看到更多相關工作的原因,在於語義上的 Web 工作試圖以升級文件係統的角度去實現它。但通過「升級」文件係統來建立數據庫是相當困難的!如果從一開始就說你正在建立一個數據庫並設計它之類的話,這樣更有效果。)「全局變量(Global variable)」會得到更加字麵上的解釋 : )(注:global 也有「全球」的意思)


那麼,當我們有一個行星尺度的、像 IPDB 那樣的數據庫共享服務,或是怎樣一番景象?我們有幾個參考點。


第一個參考點是,在企業界的公共數據管理與重新包裝使其更易被消費方麵,從簡單的天氣或網絡時間的 API,到股票和貨幣之類的金融數據 API,最近已經有一個十億美元的市場了。想象一下,所有這些數據都可通過一個單一的數據庫以一種類似的結構化方式(即使隻是一個 API 的通行證)進行訪問。就好像有了 1000 個彭博社。不用擔心受製於某個單一的實體。


第二個參考點來自於區塊鏈,即通過一個區塊鏈來「oraclize」外部數據使其易於消費的概念。但我們可以 oraclize 一切。去中心化的彭博社隻是開始。


總體而言,我們得到了數據集與數據源多樣性的一個全新規模。因此從性質上講,我們有了新數據。行星層次的結構化數據。由此從性質上講,我們可以建立新的模型,使得之前沒有聯係的輸入 & 輸出之間產生關聯。有了模型,我們將獲得性質上的新見解。


我希望此處可以說得更具體一些,但是它太新了,我想不出任何例子。不過,它們會出現的!


還會有一個 Bot 角度的。我們一直假定區塊鏈 API 的主要消費者會是人類。但如果是機器呢?現代 DNS 的創造者 David Holtzman 最近說,「IPDB 是人工智能的飼料(kibbles)」。分析一下,這是由於 IPDB 實現並鼓勵了行星層次的數據共享,而人工智能實在是很喜歡吃數據。


d4cbd30738e4b9b7398b73495fcbc4e95407a721


機會 3:數據 & 模型中的審計跟蹤使預測結果更加值得信賴


此應用針對的是這樣一個事實:如果你使用垃圾數據進行訓練,那麼你將得到一個垃圾模型。數據測試同理:垃圾進,垃圾出。


垃圾可能來自於惡意行事者/可能篡改了數據的拜占庭式故障。想一下大眾汽車的排放醜聞。垃圾也可能來自於無惡意的演員/崩潰式故障,例如有缺陷的物聯網傳感器、一個出錯的輸入數據,或是環境輻射引起的一點波動(沒有良好的糾錯行為)。


你怎麼知道 X / y 訓練數據沒有缺陷?現場使用呢,在現場輸入的數據上運行模型的情況?那麼模型預測(yhat)呢?簡而言之:進入模型以及來自模型的數據都經曆了什麼?數據也要名譽。


a6d939a03062f41ecaf8d59ecb361836f351ac07


區塊鏈技術可以給以幫助。下麵講具體做法。在過程的每一步中都建立模型,並在該領域運行模型,該數據的創造者可以簡單地為模型加上區塊鏈數據庫的時間戳,包括數字簽字以聲明「我相信這一點上的此數據/模型是沒問題的」。再具體一點就是…


建模來源:


  1. 傳感器數據(包括物聯網)。你相信你的物聯網傳感器對你說的話嗎?

  2. 訓練輸入/輸出(X / y)數據。

  3. 建模本身,比如你可以使用可信執行(Trusted execution)基礎設施,或是進行複核計算的 TrueBit 式的市場。至少有建模型收斂曲線的建模證據(例如 nmse* *vs. epoch)。

  4. 模型本身。


測試過程/該領域中的來源:


  1. 測試輸入(X)數據。

  2. 模型仿真。可信執行、TrueBit 等。

  3. 測試輸出(yhat)數據。


我們可以在模型的建立與應用過程中得到其來源。其結果是更可信的人工智能訓練數據 & 模型。我們還可以擁有這樣的連鎖結構。模型的模型,就像在半導體電路設計中那樣一直到底。現在,一切都有出處了。


好處包括:


  • (在最廣泛的意義上)捕捉所有層次上的數據供應鏈中的漏洞。例如你可以判斷傳感器是否在說謊。

  • 你知道數據和模型的來曆,並且是以密碼驗證的方式。

  • 您可以在數據供應鏈中發現漏洞。這樣一來,如果發生錯誤,我們能更好地了解其位置以及如何應對。你可以將其當做銀行式的和解,不過針對的是人工智能模型。

  • 數據有了名譽,因為多雙眼睛都可以檢查那個源,並甚至聲稱自己的數據判斷如何有效。相應地,模型也有了聲譽。


機會 4:訓練數據 & 模型全球共享注冊係統


但是如果我們有一個可以方便管理另一個數據集或數據饋送(免費或其他)的全球數據庫呢?這包括一係列出自各種機器學習比賽的 Kaggle 數據集、斯坦福 ImageNet 數據集及其他不計其數的數據集。


e35bd3c06b942cc0f6198b5e17f1377905f630f1

這正是 IPDB 可以做到的。人們可以提交數據集並使用其他人的數據。數據本身會在一個去中心化的文件係統中,就像 IPFS ;而元數據(及數據指針本身)將會在 IPDB 中。我們會獲得一個人工智能數據集的全局共享空間。這有助於實現打造數據開放社區的夢想。


我們無需停留在數據集層麵;我們也可以包括從這些數據集中建立起來的模型。抓取和運行他人的模型並提交自己的模型應該很容易。一個全球性的數據庫可以大大方便這一過程。我們可以得到行星所擁有的模型。


機會 5:作為 IP 資產的數據 & 模型→數據 & 模型交換


讓我們基於訓練數據和模型的「全局共享注冊係統」這一應用。數據 & 模型可以成為公共共享內容的一部分。但它們也可以進行購買與出售!


數據和人工智能模型可以被用來作為知識產權(IP)資產,因為它們受到版權法的保護。這意味著:


  • 如果你創建了數據或模型就可以要版權。無論你是否想進行任何商業行為。

  • 如果你擁有數據或模型的版權,那麼你可以將使用權限授權給其他人。例如,你可以將你的數據授權給其他人來構建他們自己的模型。或者你可以將你的模型授權給其他人並計入他們的移動應用程序。次級授權、次次級授權等也是可能的。當然你也可以從他人那裏獲得數據或模型授權。


我認為能夠擁有一個人工智能模型的版權並進行授權,這是相當棒的。數據已被公認為是一個潛在的巨大市場;模型會緊跟其上。在區塊鏈技術之前是可以對數據 & 模型宣稱版權與許可的。相關法律的出台已經有一段時間了。但區塊鏈技術使它變得更好,因為:


  • 版權聲明提供了一張防篡改的全球公共注冊表;你的版權聲明是數字化/加密了的簽名。此注冊表也可以包括數據 & 模型。

  • 對於你的授權交易,它也提供了一張防篡改的全球公共注冊表。這次不僅僅是數字簽名;相反除非你有私鑰,否則你甚至不能轉讓權利。權利轉移是作為一個區塊鏈式的資產轉換進行的。


在我 2013 年致力於使用 ascribe 來幫助數字藝術家們獲得報酬的過程中,區塊鏈上的 IP 與我心心相映。最初的方法有規模和許可靈活度的上的問題。現在這些都已經被克服,我最近寫的相關文章有談到這點(https://medium.com/ipdb-blog/a-decentralized-content-registry-for-the-decentralized-web-99cf1335291f#.v3jl6f9om)。這項技術包括:


  • Coala IP 是一個靈活的、區塊鏈友好的 IP 協議。

  • IPDB(及 BigchainDB)是一個公共的區塊鏈共享數據庫,用來存儲權利信息及其他網絡規模的元數據。

  • IPFS +物理存儲(比如 Storj 或 Filecoin)是一個去中心化的文件係統,用來存儲大數據 & 模型斑點。


有了這個,我們就有了數據與模型作為 IP 資產。


例如使用 ascribe 時,我聲明了於幾年前建立的一個人工智能模型的版權。該人工智能模型是一個決定使用哪種模擬電路拓撲的 CART(決策樹)。這是它的密碼防偽證書(Certificate of Authenticity /COA)。如果你想從我這獲得一個許可版本,給我發電子郵件即可: )


7e38878f4353e3dcc33ca483551595c1de8340ec

一旦我們有了數據和模型作為資產,我們就可以開始進行資產交換。


一次交換可以是中心化的,像 DatastreamX 處理數據那樣。但到目前為止,它們確實隻能使用公共數據源,因為很多企業覺得分享的風險比效益要多。


那麼去中心化的數據 & 模型交換呢?對「交換」過程中所共享的數據進行去中心化,這樣做有新的好處。去中心化過程沒有一個單一的實體去控製數據存儲基礎設施,也沒有誰擁有什麼的分類賬本,如前所述,這更易於組織合作或數據共享。比如用於 Deep Nets 的 OpenBazaar。


有了這樣一個去中心化的交換,我們會看到一個真正的開放數據市場的出現。這實現了數據與人工智能團體間的(包括你的)長期以來的一個夢想。


16248f9dc8334fcbefb1470d31a4ad988bef4e64


當然在這些交換之上也會產生一些基於人工智能算法的交易:用人工智能算法購買人工智能模型。人工智能交易算法甚至會變成這個樣子:購買算法來交易人工智能模型,然後自己進行更新!


機會 5A:在上遊控製你的數據 & 模型


這是之前應用的重複。在你登錄 Facebook 時就授予了它非常具體的權利,包括對你輸入進其係統中的任何數據的處置權限。它會對你的個人資料施加許可。


當一個音樂家用一個標簽來簽名時,他們就是在授予標簽非常具體的權利:編輯音樂、分發音樂等等。(通常該標簽會試圖攫取所有版權,這個任務非常繁重,但那是另一回事了!)


人工智能數據和人工智能模型也同理。當你創建可用於建模的數據以及創建模型本身時,你可以預先指定許可從而在上遊限製其他人的使用權限。


對於所有用例,從個人資料到音樂、從人工智能數據到人工智能模型,區塊鏈技術使這個過程變得更加容易。在區塊鏈數據庫中,你是將權限作為資產,例如一個讀取權限或查看某條數據/模型的權利。你作為權利持有人可以將這些作為資產的權限轉讓給係統中的其他人,類似於比特幣的轉讓:創建轉讓交易並用你的私人密鑰簽名。


有了這個,你就有可以更好地從上遊控製你的人工智能訓練數據、你的人工智能模型等等。「例如,你可以將這些數據進行混合卻不能進行深入學習。」


這和 DeepMind 在其醫療保健區塊鏈項目(healthcare blockchain project)中所采用的部分戰略有點像。在數據挖掘中,醫療數據會帶來監管和反壟斷問題的風險(尤其是在歐洲)。但如果用戶可以真正擁有自己的醫療數據並控製其上遊使用,那麼 DeepMind 就可以僅僅告訴消費者和監管機構說「嘿,實際上客戶擁有自己的數據,我們隻是拿來用而已」。我的朋友 Lawrence Lundy 提供了這個好例子,然後他進一步推斷:


完全可能的是,政府會允許數據私有(人類或 AGI)的唯一方式是一個數據共享基礎設施,「網絡中立」規則,就像 AT&T 公司和原始的那種電話線。在這個意義上,越來越多的自主人工智能會要求政府接受區塊鏈及其他數據共享基礎設施,從而實現長遠的可持續性。- Lawrence Lundy


機會 6:人工智能去中心化自治組織(Decentralized Autonomous Organization/DAO)——可以積累財富且無法關閉的人工智能


這是一個謊言。一個 AI DAO 屬於人工智能自身,你無法關閉它。我下文會總結「如何做」。感興趣的讀者可以繼續閱讀深入該話題。


到目前為止,我們談論了區塊鏈作為去中心化數據庫的內容。但我們也可以去中心化處理過程:基本上就是一個狀態機的存儲狀態。周圍有一些基礎設施的話做起來更容易,而那就是「智能合同(smart contracts)」技術(比如 Ethereum)的本質。


e20e91f9165e1a6a7bdb7062df7b42c234effd1a


我們之前已經以計算機病毒的形式進行了過程去中心化。沒有單個實體擁有或控製它們,而且你不能將其關閉。但它們有限製——它們主要是會試圖攻破你的計算機,就是這些。


但是,如果你可以與過程進行更豐富的互動,且過程本身可以積累財富呢?目前,通過在過程中使用更好的 API(如智能合同語言)和去中心化價值儲存(如公共區塊鏈)就可以實現它。


一個 DAO 是一個體現這些特征的過程。其代碼可以擁有自己的東西。


1a503318c6f942f46376a1751cfca046508e1d5a

是什麼把我們帶向了人工智能。最有可能的是被稱為「人工通用智能」(Artificial General Intelligence/AGI)的人工智能子領域。AGI 和環境中的交互的自主代理有關。AGI 可以被模型化為一個反饋控製係統。這是個好消息,因為控製係統有很多優點。首先它們有深厚的數學基礎,這可以追溯到 20 世紀 50 年代(Wiener 的「控製論(Cybernetics)」)。它們捕捉與世界之間的互動(驅動和傳感),並(基於內部模型和外部傳感器來更新狀態)適應它。控製係統得到了廣泛的應用。它們決定了一個簡單的恒溫器如何去適應目標溫度。它們消除了高價耳機中的噪音。它們處於成千上萬的設備的中心,從烤箱到車裏的刹車裝置。


人工智能社區最近對控製係統的接受程度更加熱烈了。比如,它們是 AlphaGo 的關鍵所在。而且 AGI 本身就是控製係統。


一個 AI DAO 就是一個運行在去中心化處理 & 存儲載體之上的 AGI 式控製係統。其反饋回路會自行進行繼續,輸入、更新狀態、執行輸出,循環往複地使用這些資源。


7e506d14d76a36c125cb72a12ec8a14ed08ec408


我們可以從一個人工智能入手來得到一個 AI DAO(一個 AGI 代理),並使其去中心化。或者我們可以從一個 DAO 入手並賦予其人工智能的決策能力。


人工智能獲取其丟失的鏈接:資源。DAO 得到其丟失的鏈接:自主決策。正因為如此,AI DAO 的使用範圍比 AI 或 DAO 本身更大。其潛在影響也是成倍的。


這裏有一些應用:


  • 一個 ArtDAO,創建自己的數字藝術並進行銷售。概括地說,它可以做 3D 設計、音樂、視頻甚至是整部電影。

  • 有自我身份的自動駕駛汽車。概括地說就是之前的任何人工智能應用現在是「屬於自己」的了。未來的情況或許是人類一無所有而隻是向 AI DAO 租用服務。

  • 任何注入人工智能的 DAO 應用程序。

  • 有更多自主性的任何去中心化 SaaS 應用程序。

  • 詳情見 AI DAOs Part II . 有一些非常可怕的… https://medium.com/@trentmc0/wild-wooly-ai-daos-d1719e040956#.r6akj4ne0


總結


本文基於我個人在人工智能和區塊鏈研究方麵的經驗,描述了區塊鏈技術可以如何輔助人工智能。二者結合一處即發!區塊鏈技術——尤其是行星尺度的——可以幫助實現人工智能和數據團體長期以來的一些夢想,並打開一些機會。


總結如下:


2bd5c62d09c5bad65c84a79d6dd2e60f29c6f676

本文來源於"中國人工智能學會",原文發表時間"2016-12-29 "


最後更新:2017-05-23 15:36:45

  上一篇:go  Java鎖的種類以及辨析(四):可重入鎖
  下一篇:go  在獨立的 Root 和 Home 硬盤驅動器上安裝 Ubuntu