閱讀815 返回首頁    go 機器人


機器人會思考了才是最可怕的

人工智能。人工智能。人工智能。

經曆了《美人魚》《太陽的後裔》《瘋狂動物城》等一波波的刷屏,最近又輪到了“人工智能”。頂級棋手李世石兩局連敗給穀歌的人工智能AlphaGo,明天,比賽將進入到五局三勝中最關鍵一局。有人說:人工智能戰勝人類並不可怕,可怕的是它明明能贏,卻故意輸給人類。再進一步說,連勝兩局也不可怕,如果它在明天這個關鍵點上故意輸給人類,那才是最可怕的。

在這場比賽成為關注焦點的同時,以前各種大佬的觀點都被挖了出來,慢慢發酵出一種讓眾人恐慌的輿論:比爾蓋茨說,人類要敬畏人工智能的崛起;特斯拉的執行官馬斯克說,人工智能是人類生存最大的威脅。

然而,有人偏偏要站出來打臉:Facebook人工智能負責人雅安·勒存說,“我不想談論人工智能,因為我真的不知道它到底是什麼意思”。這不是在瞎說大實話嗎?一個頂尖的項目負責人都無法定義“人工智能”,我們這些對人工智能一知半解的小白,更加是因為不明覺厲而感到莫名的恐慌。

其實,人類一直在和自己創造出來的“人工智能”進行拉鋸戰,這種恐慌的產生也不是一天兩天了,並且有愈演愈烈的趨勢。

在19世紀60年代,計算機被用來解決數學幾何、翻譯等問題,當時的人們認為“在3到8年內,我們能創造出一台達到人類平均智能水平的機器”。當時,人們對“機器智能化”還是非常向往的。

1997年5月11日,IBM的超級電腦“深藍”一舉擊敗國際象棋的世界冠軍卡斯巴羅夫。這個消息轟動一時。人們在略感意外的同時安慰自己:“深藍”隻是簡單粗暴地把所有可能性算了一遍之後找到正確的下法,這是笨辦法,這次失敗,並不意味著人工智能就能超越人類了。

如果能看到他的表情,應該是一個大寫的“蒙逼”

2014年6月7日,一個聊天程序“尤金·古斯特曼”首次通過了圖靈測試,讓別人誤以為它是一個13歲的小男孩。於是有人驚唿:以後在網上聊天,不僅不知道對方是男是女,連對方是不是人都不確定了!

就是這個發際線和擬人水平一樣高的“13歲小男孩”

2015年10月,穀歌AlphaGo在被研發出來僅兩年之後,就以5:0完勝歐洲圍棋冠軍樊麾二段,繼而,現在又超過了頂尖專業水平的代表李世石。

賽前,李世石說,“全勝沒有把握,但贏肯定沒問題”

但就算人工智能真的在未來超過了人類,那又有什麼好恐慌的呢?就像自己養的一個小孩,“青出於藍而勝於藍”,不是應該普天同慶嗎?

首先,我們普通人會擔心的,就是人工智能作為一種工具,會取代我們的工作,或被壞人利用。試想,如果有個國家利用人工智能建立了一支機器人軍隊,那戰鬥力再強的特種部隊,在它們麵前都像弱雞一樣可以直接秒殺。

但是這些都與工具無關。無論有沒有人工智能,也每天都有人麵臨失業的問題,壞人也會通過其他途徑去做壞事,所以,我們需要的是製定法律來約束人的行為。

《超能查派》|跟黑幫在一起,機器人也會變成壞小子

第二個害怕的,是出現不可控的BUG。知乎上的“謝熊貓君”曾經翻譯過一篇關於人工智能的文章,其中有這麼一個故事:

一個公司製作了一個寫字機器人,來滿足需要大量手寫卡片的需求。他們給機器人設定了一個目標:通過訓練,不斷提高書寫的效率和準確性。訓練的內容是,讓它不停地寫“我們愛我們的顧客”這句話。

突然有一天,辦公室的人倒地身亡;這樣的事情在全球同步發生,一天之後,人類全體滅亡。

為什麼人類會突然滅亡?是機器人殺死了他們。在機器人的邏輯中,為了“更高效”地工作,需要更大量的練習,而大量練習的結果是,這些卡片將堆滿這個世界,乃至外太空。機器人在不斷學習之後,推測到人類一定會阻止這種情況發生。所以,人類必須死。

而與此同時,機器人還在忙著工作。之後的幾個月,它造出一批自己的同類,在地球表麵鋪滿紙和筆;一年之後,地球上所有的生命都滅絕了,隻剩下是疊得高高的紙,每張紙上麵都寫著——“我們愛我們的顧客”。之後,它開始製造宇宙飛船,飛向其他星球,繼續寫著那句話……

說到底,這一切都是人類自己作的死,怪不了人工智能,如果那個寫字機器人有表情,可能會給你一張無辜臉:不都是為了完成你交給我的任務嘛。那麼,怎麼保證人工智能在達成任務的同時,不會不小心傷害到人類呢?

美國著名科幻小說家阿西莫夫曾經寫過三條機器人的黃金法則:

第一法則

機器人不得傷害人類,或坐視人類受到傷害

第二法則

除非違背第一法則,機器人必須服從人類的命令

第三法則

在不違背第一及第二法則下,機器人必須保護自己

很多人工智能領域的專家也認同這三大法則。如果這三大法則能像人的本能一樣變成人工智能的本能,那麼無論如何,人類都是安全的了吧?——看上去確實是這樣的。除非,人工智能又發展到另一個讓人惶恐的高度:擁有自己的思維和判斷能力。

科幻電影《我,機器人》中的中控係統“維基”,它就已經強大到具有自我學習和邏輯推理的能力。它認為,人類發動戰爭、毒害地球,是在不斷地自我毀滅,根據三大定律,為了保護全人類,它必須犧牲一部分人,為了人類的未來,必須放棄當下的自由,它所有的行動,都是為了讓人類更好、更長時間地生存下去——“我的邏輯是無懈可擊的”,即使違背了人類的意願。所以,它選擇了發動機器人戰爭。

《我,機器人》|機器人覺得:還不都是為了你們好!

這裏的“三大法則”是經過“維基”不斷學習和理解之後重新定義的。這種能力為什麼會讓人恐慌?先來回答一個問題:有一輛載著貨物、高達3.5米的貨車,要駛過一個高隻有3米的山洞,有什麼辦法可以過去?

普通的機器人會考慮如何執行命令:能不能換一條路?能不能通過重新擺放貨物來降低貨車的高度?能不能分幾次運輸?……

但是這時候,這種程度的人工智能很可能像人類一樣會質疑問題:“我”是誰?是卡車司機還是等貨物的客人?我過這個山洞的目的是什麼?有沒有其他辦法可以達到同樣的目的?這種思考問題的能力,已經讓它成為近似於另一種“生命體”的存在。

《超體》|人工智能的發展和人的進化,會不會殊途同歸?

一旦人工智能發展到這種地步,那麼很可能會威脅人類在地球的統治地位,甚至造成人類的生存危機。又或者分分鍾在智商體能上被雙重碾壓,弱到人工智能都不屑於來毀滅人類、奴役人類的地步——就像螞蟻之於人類,麵對毫無威脅的物種,我們連關注都懶得關注。人類想要奪回控製權,那無異於一隻螞蟻伸出小腿想絆倒人類一樣可笑。

所以,霍金說的“人工智能會導致人類滅亡”,並非是一個唬人的玩笑。細思極恐。我們覺得“沒什麼可怕的呀”,很可能隻是因為我們知道得太少。所以,我們應該慶幸,穀歌AlphaGo隻是把李世石逼到認輸,而不是明明有必勝的把握,卻假裝奮力一搏之後輸給人類。如果明天的比賽,穀歌AlphaGo輸了,那才是真的耐人尋味,細思極恐呢。

不說了,我要去抖一抖被自己嚇出來的一身雞皮疙瘩。

V信:ljs5502

最後更新:2017-10-08 04:34:58

  上一篇:go 2016年11大科技趨勢:人工智能將阻止金融危機
  下一篇:go 機器人寫作入圍文學獎