430
機器人
龍網:人神分界的起點:人工智能與區塊鏈3龍網科技

很少有人意識到,未來10年的生產力進步可能會等於幾千年的總和。
更少的人意識到,迄今為止,生產關係已經有160多年沒有進步。
人工智能為生產力的提升提供了史無前例的可能。而區塊鏈,則從根本上顛覆了原有人類世界的生產關係。這兩者,將會徹底改變人類的進程。
“
我們正站在變革的邊緣,而這次變革將和人類的出現一般意義重大
– Vernor Vinge
”
上次我們說到了從曆史上看,人類生產力的進步速度是逐漸加快的。未來學家Ray Kurzweil把這種人類的加速發展稱作加速回報定律,並認為2050年的世界會變得麵目全非。與此同時,人工智能正在是以指數的速度發展,其在未來進步的速度會遠遠超出我們的想象,最終導致生產力以史無前例的速度進行增長。詳情見:
人神分界的起點:人工智能與區塊鏈(一)
人神分界的起點:人工智能與區塊鏈(二)
4. 智能爆炸
從這邊開始,這個話題要變得有點嚇人了。我在這裏要提醒大家,以下所說的都是大實話——是一大群受人尊敬的思想家和科學家關於未來的誠實的預測。你在下麵讀到什麼離譜的東西的時候,要記得這些東西是比你我都聰明很多的人想出來的。
首先,我們要引出一個沉重的概念——遞歸的自我改進。這個概念是這樣的:一個運行在特定智能水平的人工智能,比如說腦殘人類水平,是可以通過自我改進機製變得越來越聰明。我們假設它後來達到了愛因斯坦的水平。而這個時候當它再繼續進行自我改進的時候,因為現在它有了愛因斯坦水平的智能,所以這次改進會比上麵一次更加容易,效果也更好。第二次的改進使得他比愛因斯坦還要聰明很多,讓它接下來的改進進步更加明顯。如此反複,這個強人工智能的智能水平越長越快,直到它達到了超人工智能的水平——這就是智能爆炸,也是加速回報定律的終極表現。
以下的情景很可能會發生:一個人工智能係統花了幾十年時間到達了人類腦殘智能的水平,而當這個節點發生的時候,電腦對於世界的感知大概和一個四歲小孩一般;而在這節點後一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論;而在這之後一個半小時,這個強人工智能變成了超人工智能,智能達到了普通人類的17萬倍。
這個級別的超級智能不是我們能夠理解的,就好像蜜蜂不會理解凱恩斯經濟學一樣。在我們的語言中,我們把130的智商叫作聰明,把85的智商叫作笨,但是我們不知道怎麼形容12952的智商,人類語言中根本沒這個概念。
但是我們知道的是,人類對於地球的統治教給我們一個道理——智能就是力量。也就是說,一個超人工智能,一旦被創造出來,將是地球有史以來最強大的東西,而所有生物,包括人類,都隻能屈居其下——而這一切,有可能在未來幾十年就發生。
想一下,如果我們的大腦能夠發明Wifi,那麼一個比我們聰明100倍、1000倍、甚至10億倍的大腦說不定能夠隨時隨地操縱這個世界所有原子的位置。那些在我們看來超自然的,隻屬於全能的上帝的能力,對於一個超人工智能來說可能就像按一下電燈開關那麼簡單。防止人類衰老,治療各種不治之症,解決世界饑荒,甚至讓人類永生,或者操縱氣候來保護地球未來的什麼,這一切都將變得可能。同樣可能的是地球上所有生命的終結。
當一個超人工智能出生的時候,對我們來說就像一個全能的上帝降臨地球一般。
這時候我們所關心的就是:
一旦機器達到了人類級別的智能,我們將見到如下的場景:
這讓我們無所適從,尤其考慮到超人工智能可能會發生在我們有生之年,我們都不知道該用什麼表情來麵對。
再我們繼續深入這個話題之前,讓我們提醒一下自己超級智能意味著什麼。
首先,它的運算速度會非常非常快——就好像一個運算速度是人類百萬倍的機器,能夠用幾分鍾時間思考完人類幾十年才能思考完的東西。
這聽起來碉堡了,而且超人工智能確實會比人類思考的快很多,但是真正的差別其實是在智能的質量而不是速度上。用人類來做比喻,人類之所以比猩猩智能很多,真正的差別並不是思考的速度,而是人類的大腦有一些獨特而複雜的認知模塊,這些模塊讓我們能夠進行複雜的語言呈現、長期規劃、或者抽象思考等等,而猩猩的腦子是做不來這些的。就算你把猩猩的腦子加速幾千倍,它還是沒有辦法在人類的層次思考的,它依然不知道怎樣用特定的工具來搭建精巧的模型——人類的很多認知能力是猩猩永遠比不上的,你給猩猩再多的時間也不行。
而且人和猩猩的智能差別不隻是猩猩做不了我們能做的事情,而是猩猩的大腦根本不能理解這些事情的存在——猩猩可以理解人類是什麼,也可以理解摩天大樓是什麼,但是它不會理解摩天大樓是被人類造出來的,對於猩猩來說,摩天大樓那麼巨大的東西肯定是天然的,句號。對於猩猩來說,它們不但自己造不出摩天大樓,它們甚至沒法理解摩天大樓這東西能被任何東西造出來。而這一切差別,其實隻是智能的質量中很小的差別造成的。
而當我們在討論超人工智能時候,智能的範圍是很廣的,和這個範圍比起來,人類和猩猩的智能差別是細微的。如果生物的認知能力是一個樓梯的話,不同生物在樓梯上的位置大概是這樣的:
要理解一個具有超級智能的機器有多牛逼,讓我們假設一個在上圖的樓梯上站在深綠色台階上的一個機器,它站的位置隻比人類高兩層,就好像人類比猩猩隻高兩層一樣。這個機器隻是稍微有點超級智能而已,但是它的認知能力之於人類,就好像人類的認知能力之於猩猩一樣。就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,人類完全沒有辦法理解比人類高兩層台階的機器能做的事情。就算這個機器試圖向我們解釋,效果也會像教猩猩造摩天大樓一般。
而這,隻是比我們高了兩層台階的智能罷了,站在這個樓梯頂層的智能之於人類,就好像人類之於螞蟻一般——它就算花再多時間教人類一些最簡單的東西,我們依然是學不會的。
但是我們討論的超級智能並不是站在這個樓梯頂層,而是站在遠遠高於這個樓梯的地方。當智能爆炸發生時,它可能要花幾年時間才能從猩猩那一層往上邁一步,但是這個步子會越邁越快,到後來可能幾個小時就能邁一層,而當它超過人類十層台階的時候,它可能開始跳著爬樓梯了——一秒鍾爬四層台階也未嚐不可。所以讓我們記住,當第一個到達人類智能水平的強人工智能出現後,我們將在很短的時間內麵對一個站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):
前麵已經說了,試圖去理解比我們高兩層台階的機器就已經是徒勞的,所以讓我們很肯定的說,我們是沒有辦法知道超人工智能會做什麼,也沒有辦法知道這些事情的後果。任何假裝知道的人都沒搞明白超級智能是怎麼回事。
自然演化花了幾億年時間發展了生物大腦,按這種說法的話,一旦人類創造出一個超人工智能,我們就是在碾壓自然演化了。當然,可能這也是自然演化的一部分——可能演化真正的模式就是創造出各種各樣的智能,直到有一天有一個智能能夠創造出超級智能,而這個節點就好像踩上了地雷的絆線一樣,會造成全球範圍的大爆炸,從而改變所有生物的命運。
科學界中大部分人認為踩上絆線不是會不會的問題,而是時間早晚的問題。想想真嚇人。
那我們該怎麼辦呢?
可惜,沒有人都告訴你踩到絆線後會發生什麼。但是人工智能思想家Nick Bostrom認為我們會麵臨兩類可能的結果——永生和滅絕。
首先,回顧曆史,我們可以看到大部分的生命經曆了這樣的曆程:物種出現,存在了一段時間,然後不可避免的跌落下生命的平衡木,跌入滅絕的深淵。
曆史上來說,“所有生物終將滅絕”就像“所有人都會死”一樣靠譜。至今為止,存在過的生物中99.9%都已經跌落了生命的平衡木,如果一個生物繼續在平衡木上走,早晚會有一陣風把它吹下去。Bostrom把滅絕列為一種吸引態——所有生物都有墜入的風險,而一旦墜入將沒有回頭。
雖然大部分科學家都承認一個超人工智能有把人類滅絕的能力,也有一些人為如果運用得當,超人工智能可以幫助人類和其它物種,達到另一個吸引態——永生。Bostrom認為物種的永生和滅絕一樣都是吸引態,也就是我一旦我們達成了永生,我們將永遠不再麵臨滅絕的危險——我們戰勝了死亡和幾率。所以,雖然絕大多數物種都從平衡木上摔了下去滅絕了,Bostrom認為平衡木外是有兩麵的,隻是至今為止地球上的生命還沒聰明到發現怎樣去到永生這另一個吸引態。
如果Bostrom等思想家的想法是對的,而且根據我的研究他們確實很可能是對的,那麼我們需要接受兩個事實:
1)超人工智能的出現,將有史以來第一次,將物種的永生這個吸引態變為可能
2)超人工智能的出現,將造成非常巨大的衝擊,而且這個衝擊可能將人類吹下平衡木,並且落入其中一個吸引態
有可能,當自然演化踩到絆線的時候,它會永久的終結人類和平衡木的關係,創造一個新的世界,不管這時人類還是不是存在。
而現在的問題就是:“我們什麼時候會踩到絆線?”以及“從平衡木上跌下去後我們會掉入哪個吸引態?”
4.1. 什麼時候我們會踩到絆線?
沒人知道答案,但是一些聰明人已經思考了幾十年,接下來我們看看他們想出來了些什麼。
先來討論“我們什麼時候會踩到絆線?”也就是什麼時候會出現第一個超級智能。
不出意外的,科學家和思想家對於這個意見的觀點分歧很大。
2013年的時候,Bostrom做了個問卷調查,涵蓋了數百位人工智能專家,結果有一半以上的人工智能專家認為在你的有生之年能夠有90%的可能性能見到強人工智能的實現。
從以上答案,我們可以估計一個中位的專家認為強人工智能到超人工智能可能要花20年左右。所以,我們可以得出,現在全世界的人工智能專家中,一個中位的估計是我們會在2040年達成強人工智能,並在20年後的2060年達成超人工智能——也就是踩上了絆線。
當然,以上所有的數據都是推測,它隻代表了現在人工智能領域的專家的中位意見,但是它告訴我們的是,很大一部分對這個領域很了解的人認為2060年是一個實現超人工智能的合理預測——距今隻有45年。
那麼我們來看一下下一個問題,踩到絆線後,我們將跌向平衡木的哪一個方向?
4.2. 踩到絆線後,我們將何去何從?
超級智能會產生巨大的力量,所以關鍵的問題時——到時這股力量究竟由誰掌握,掌握這份力量的人會怎麼做?
這個問題的答案將決定超人工智能究竟是天堂還是地獄。
在我們深入討論好壞這個問題之前,我們先把“什麼時候會發生”和“這是好事還是壞事”的結果綜合起來畫張表,這代表了大部分專家的觀點:
我們等下再考慮主流陣營的觀點。咱們先來問一下你自己是怎麼想的,其實我大概能猜到你是怎麼想的,因為我開始研究這個問題前也是這樣的想的。很多人其實不關心這個話題,原因無非是:
像本文第一部分所說,電影展示了很多不真實的人工智能場景,讓我們認為人工智能不是正經的課題。作家James Barrat把這比作傳染病控製中心發布吸血鬼警報一樣滑稽。
因為認知偏差,所以我們在見到證據前很難相信一件事情是真的。我確信1988年的時候電腦科學家們就已經常在討論因特網將是多麼重要,但是一般人並不會認為因特網會改變他們的生活——直到他們的生活真的被改變了。一方麵,1988年的電腦確實不夠給力,所以那時的人們看著電腦會想:“這破玩意兒也能改變我的生活,你逗我吧?”人們的想象力被自己對於電腦的體驗而約束。讓他們難以想象電腦會變成現在的樣子。同樣的事情正發生在人工智能領域。我們聽到很多人說人工智能將會造成很大影響,但是因為這個事情還沒發生,因為我們和一些弱爆了的人工智能係統的個人經曆,讓我們難以相信這東西真的能改變我們的生活。而這些認知偏差,正是專家們在努力對抗的。
就算我們相信人工智能的巨大潛力,你今天又花了多少時間思考“在接下來的永恒中,絕大部分時間我都不會再存在”這個問題?雖然這個問題比你今天幹的大部分事情都重要很多,但是正常人都不會老是想這個吧。這是因為你的大腦總是關注日常的小事,不管長期來看有多少重要的事情,我們天生就是這麼思考的。
這篇東西的主要目標就是讓你脫離普通人陣營,加入專家思考的陣營,哪怕能讓你站到兩條不確定線的交點上,目標也達到了。
在我的研究中,我見識到了各種各樣的觀點,但是我發現大多數人的觀點都停留在主流陣營中。事實上超過四分之三的專家都屬於主流陣營中的兩個小陣營:焦慮大道和信心角。
我們將對這兩個小陣營做深入的談論,讓我們從比較有趣的那個開始吧
4.2.1. 為什麼未來會是天堂?
研究人工智能這個領域後,我發現有比預期的多得多的人站在信心角當中:
站在信心角中的人非常興奮,他們認為他們將走向平衡木下比較有趣的那個吸引態,未來將實現他們的夢想,他們隻需耐心等待。
把這一部分人從其他思想家區分開來的是這些人對於比較有趣的那個吸引態的欲望——他們很有信心永生是我們的發展方向。
5. 超人工智能能做什麼?
在我們繼續討論人工智能前,讓我們談一下納米技術這個任何關於人工智能的討論都會涉及到的領域:
納米技術
納米技術說的是在1-100納米的範圍內操縱物質的技術。一納米是一米的十億分之一,是一毫米的一百萬分之一。1-100納米這個範圍涵蓋了病毒(100納米長),DNA(10納米寬), 大分子比如血紅蛋白(5納米),和中分子比如葡萄糖(1納米)。當我們能夠完全掌握納米技術的時候,我們離在原子層麵操縱物質就隻差一步了,因為那隻是一個數量級的差距(約0.1納米)。
要了解在納米量級操縱物質有多困難,我們可以換個角度來比較。國際空間站距離地麵431公裏。如果一個人身高431公裏,也就是他站著能夠頂到國際空間站的話,他將是普通人類的25萬倍大。如果你把1-100納米放大25萬倍,你算出的是0.25毫米-25毫米。所以人類使用納米技術,就相當於一個身高431公裏的巨人用沙子那麼大的零件搭精巧的模型。如果要達到原子級別操縱物質,就相當於讓這個431公裏高的巨人使用0.025毫米大的零件。
關於納米技術的思考,最早由物理學家費曼在1959年提出,他解釋道:“據我所知,物理學的原理,並不認為在原子級別操縱物質是不可能的。原則上來說,物理學家能夠製造出任何化學家能寫出來的物質——隻要把一個個原子按照化學家寫出來的放在一起就好了。”其實就是這麼簡單,所以我們隻要知道怎樣移動單個的分子和原子,我們就可以造出任何東西。
工程師Eric Drexler提出納米級組裝機後,納米技術在1986年成為了一門正經的學科。納米級組裝機的工作原理是這樣的:一個牛逼掃描儀掃描物件的3D原子模型,然後自動生成用來組裝的軟件。然後由一台中央電腦和數萬億的納米“機器人”,通過軟件用電流來指揮納米機器人,最後組成所需要的物件。
--------------------------
再扯遠一點
納米技術有一些不是那麼有趣的部分——能夠製造數萬億的納米機器人唯一合理的方法就是製造可以自我複製的範本,然後讓指數級增長來完成建造任務。很機智吧?
是很機智,但是這一不小心就會造成世界末日。指數級增長雖然能很快的製造數萬億的納米機器人,但這也是它可怕的地方——如果係統出故障了,指數級增長沒有停下來,那怎麼辦?納米機器人將會吞噬所有碳基材料來支持自我複製,而不巧的是,地球生命就是碳基的。地球上的生物質量大概包含10^45個碳原子。一個納米機器人有10^6個碳原子的話,隻需要10^39個納米機器人就能吞噬地球上全部的生命了,而2^130約等於10^39,也就是說自我複製隻要進行130次就能吞噬地球生命了。科學家認為納米機器人進行一次自我複製隻要100秒左右,也就是說一個簡單的錯誤可能就會在3.5小時內毀滅地球上全部的生命。
更糟糕的是,如果恐怖分子掌握了納米機器人技術,並且知道怎麼操縱它們的話,他可以先造幾萬億個納米機器人,然後讓它們散播開來。然後他就能發動襲擊,這樣隻要花一個多小時納米機器人就能吞噬一切,而且這種攻擊無法阻擋。未來真的是能把人嚇尿的。
------------------------
等我們掌握了納米技術後,我們就能用它來製造技術產品、衣服、食物、和生物產品,比如人造紅細胞、癌症細胞摧毀者、肌肉纖維等等。而在納米技術的世界裏,一個物質的成本不再取決於它的稀缺程度或是製造流程的難度,而在於它的原子結構有多複雜。在納米技術的時代,鑽石可能比橡皮擦還便宜。
我們還沒掌握這種技術,我們甚至不知道我們對於達成這種技術的難度是高估了還是低估了,但是我們看上去離那並不遙遠。Kurzweil預測我們會在21世紀20年代掌握這樣的技術。各國政府知道納米技術將能改變地球,所以他們投入了很多錢到這個領域,美國、歐盟和日本至今已經投入了50億美元。
設想一下,一個具有超級智能的電腦,能夠使用納米級的組裝器,是種什麼樣的體驗?要記得納米技術是我們在研究的玩意兒,而且我們就快掌握這項技術了,而我們能做的一切在超人工智能看來就是小兒科罷了,所以我們要假設超人工智能能夠創造出比這要發達很多很多的技術,發達到我們的大腦都沒有辦法理解。
因此,當考慮“如果人工智能革命的成果對我們是好的”這個命題的時候,要記得我們根本沒法高估會發生什麼。所以就算下麵對於超人工智能的預測顯得太不靠譜,要記得這些進展可能是用我們沒有辦法想象的方法達成的。事實上,我們的大腦很可能根本沒法預測將會發生什麼。
擁有了超級智能和超級智能所能創造的技術,超人工智能可以解決人類世界的所有問題。氣候變暖?超人工智能可以用更優的方式產生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然後它能創造方法移除多餘的二氧化碳。癌症?沒問題,有了超人工智能,製藥和健康行業將經曆無法想象的革命。世界饑荒?超人工智能可以用納米技術直接搭建出肉來,而這些搭建出來的肉和真肉在分子結構上會是完全相同的——換句話說,就是真肉。
納米技術能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然後用超級發達的交通把這些食物分配到世界各地。這對於動物也是好消息,我們不需要屠殺動物來獲得肉了。而超人工智能在拯救瀕危物種和利用DNA複活已滅絕物種上麵也能做很多事情。超人工智能甚至可以解決複雜的宏觀問題——我們關於世界經濟和貿易的爭論將不再必要,甚至我們對於哲學和道德的苦苦思考也會被輕易的解決。
但是,有一件事是如此的吸引人,光是想想就能改變對所有事物的看法了:
幾個月前,我提到我很羨慕那些可能達成了永生的文明。但是,現在,我已經在認真的考慮達成永生這個事情很可能在我們有生之年就能達成。研讀人工智能讓你重新審思對於所有事情的看法,包括死亡這一很確定的事情。
自然演化沒有理由讓我們活得比現在更長。對於演化來說,隻要我們能夠活到能夠生育後代,並且養育後代到能夠自己保護自己的年紀,那就夠了——對演化來說,活30多歲完全夠了,所以額外延長生命的基因突變並不被自然選擇所鍾愛。這其實是很無趣的事情。
而且因為所有人都會死,所以我們總是說“死亡和繳稅”是不可避免的。我們看待衰老就像看待時間一樣——它們一直向前,而我們沒有辦法阻止它們。
但是這個假設是錯的,費曼曾經寫道:
“在所有的生物科學中,沒有任何證據說明死亡是必需的。如果你說你想造永動機,那我們對於物理學的研究已經讓我們有足夠的理論來說明這是不可能的。但是在生物領域我們還沒發現任何證據證明死亡是不可避免的。也就是說死亡不一定是不可避免的,生物學家早晚會發現造成我們死亡的原因是什麼,而死亡這個糟糕的‘病’就會被治好,而人類的身體也將不再隻是個暫時的容器。”
事實上,衰老和時間不是綁死的。時間總是會繼續前進的,而衰老卻不一定。仔細想想,衰老隻是身體的組成物質用舊了。汽車開久了也會舊,但是汽車一定會衰老嗎?如果你能夠擁有完美的修複技術、或者直接替換老舊的汽車部件,這輛車就能永遠開下去。人體隻是更加複雜而已,本質上和汽車是一樣的。
最終,Kurzweil認為人類會完全變成人工的。有一天當我們看到生物材料,然後覺得生物材料實在太原始了,早年的人體居然是用這樣的東西組成的,早期的人類居然會被微生物、意外、疾病殺死。這就是Kurzweil眼中人類最終戰勝自己的生理,並且變得不可摧毀和永生,這也是平衡木的另一個吸引態。他深深的想象我們會達到那裏,而且就在不久的將來。
版權聲明:本文資料由龍網小編取自互聯網改編加工創作,轉載請注明出處,關注龍網。
想了解更多精彩內容請關注天天快報:龍文化LoongCulture
最後更新:2017-10-10 12:26:20