閱讀645 返回首頁    go 機器人


機器人會傷害你?科學家做了實驗並回答了七個問題

艾薩克阿西莫夫著名的機器人三定律,對機器人和自動機器人設下行為準則以確保人類的安全,也是一個著名的虛構學說。這部法則首次出現在他1942年的短篇小說《跑位》中,並且也出現在《我,機器人》等經典作品中,在剛開始出現的時候看起來很不錯:

1、機器人不得傷害人類,或因不作為而使人類受到傷害。

2、除非違背第一法則,機器人必須遵守人類的命令。

3、在不違背第一及第二法則下,機器人必須保護自己。

當然,應用在現實中的隱藏的衝突和漏洞比比皆是,在我們這個擁有著先進的機器學習軟件和自動化機器人時代,定義和實施人工智能的一套完整可行的道德規範已經成為像機器智能研究所和OpenAI所重點考慮的問題。

Christoph Salge是紐約大學的一名計算機科學家,他采取了一種不同的方法。Salge和他的同事Daniel Polani並沒有用自上而下的哲學理論來定義人工智能的行為,而是在研究一種自下而上的道路,或者是“機器人應該首先做什麼”。正如他們在最近的論文中所寫的那樣,“給予權利是機器人三定律的替代品。”“授權”這個概念在一定程度上受到了控製論和心理學的啟發,它描述了一個代理人的內在動機,即堅持並在其周圍環境中工作。“就像有機體一樣,它想要生存下去。它想去影響世界,”Salge解釋道。在電池電量過低的情況下,Roomba會在它快沒電時自動尋找充電站,這可能是一種非常基本的授權方式:它必須采取行動讓自己沒電不能續航時通過充電來維持自身的生存。

授權聽起來像是一個導致像Nick Bostrom這樣的安全智能思想家擔心的結果:強大的自治係統隻關心如何讓自己的利益最大化並做出一些瘋狂的行為。但是,研究人類機器社交互動的Salge想知道,如果一個被授權的人工智能“也觀察到到另一個被授權的人工智能”,結果會是怎樣。你不僅想讓你的機器人保持運轉,你還想保持對它能夠與人類友好相處而進行控製。”

Salge和Polani意識到,信息理論提供了一種方法,將這種相互賦權轉化為一種數學框架,即可以付諸行動的一個非哲學化的人工智能。Salge說:“機器人三定律的一個缺點是,它們是基於語言的,而語言有高度的模煳性。”“我們正在努力尋找一種可以實際操作的東西。”

Quanta與Salge討論了信息理論、虛無主義人工智能和人類與機器人互動的犬類模型。下麵是經過精簡編輯的對話。

問:一些技術專家認為,人工智能是一個重大甚至當今存在的威脅。失控的人工智能會讓你擔心嗎?

我對此不抱太好的看法。我的意思是我確實認為現在機器人和人工智能的影響力越來越大。但我認為,我們可能更應該關心的是這些人工智能將影響未來職位的更替、決策的製定,也可能會使民主的喪失,以及隱私的喪失。我不確定這種失控的人工智能有多大可能會讓這些發生。即使是人工智能可以幫助我們控製醫療係統,或者得到一些治療方案,但我們也應該開始關注由此產生的倫理問題。

問:賦權將如何幫助我們解決這些問題呢?

我認為,賦權確實是一種填補漏洞的的想法。它讓一個人工智能幫助人類避免死亡,但一旦你滿足了這個基本的底線,它仍然有一種持續的動力去創造更多的可能性,讓人類更多地表現自己來對世界產生更大的影響。在Asimov的一本書中,我認為機器人最終將所有人類置於某種安全的容器中。這當然是我們所不願意看到的。然而,讓我們的能力增強並持續地影響世界似乎是一個更有趣的最終目標。

問:你在一個遊戲環境中測試了你的虛擬人工智能。然後發生什麼呢

一個被自己的力量所激勵的人工智能會跳出炮彈的方向,或者避免落入一個洞中,或者避免任何可能導致其喪失機動性、死亡或被破壞的情況,從而減少其運作性。它隻會不停地運行。

當它與一個人類棋手配對時,它被設計成能自我增強,我們觀察到虛擬機器人會保持一定的距離來避免阻礙人類的行動。它不會阻礙你進入,它也不會站在你無法通過的門口。我們看到,這種效果基本上人類會讓他的同伴形影不離,這樣同伴才能就能幫到他。它導致了一些可以引領或跟隨的行為。

例如,我們還創造了一個激光屏障的場景,對人類有害,但對機器人無害。如果這個遊戲中的人類離激光更近,突然就會有越來越多的激勵因素驅使機器人去阻擋激光。當人類站在它旁邊時,它的動機就會變得更強,這意味著“我現在想穿過它”。這個機器人會擋住激光,站在它前麵。

問:這些人工智能是否有出現任何意想不到的行為,就像Asimov小說中出現的三部法律一樣?

我們最初設計的行為很好。例如,虛擬機器人會幹掉那些想要殺死你的敵人。偶爾,如果這是唯一能拯救你的方法,它可能會跳到你麵前為你擋子彈。但在一開始,有一件事讓我們有點吃驚,那就是它也非常害怕你。

這與它的“本地正向”模式有關:基本上,它所判斷的是,未來發生的兩三個行為對人類或者它本身的世界的影響是怎樣的。因此,作為簡單的第一步,我們編寫了這個模型,假設玩家會隨機操作。但在實際操作中,這意味著機器人的行為實際上是基於在假定人是一種精神變態者的情況下,所以在任何時候,比如說,人類都可以決定向機器人開火。所以機器人總是非常小心地待在那些人類無法殺死它的位置上。

我們必須解決這個問題,所以我們建立了一個我們稱之為信任的假設。基本來說,“同伴機器人”的行為是基於這樣的假設:人類隻會選擇那些不會移除代理自身權力的行為——這可能是一個更自然的伴侶模式。

我們在比賽中注意到的另一件事是,如果你有10個生命值,你的同伴機器人並不關心你失去前八、九個生命值,甚至會在一段時間內認為射殺你隻是一種詼諧的行為。在這個實驗中我們再次意識到,我們生活的世界與電腦遊戲中的模型之間存在著間隙。一旦我們用基於生命損失來生產出能力限製模型,這個問題就解決了。但它也可以通過設計本地正向模型來解決,這讓它能夠預知未來的一切條件,而不僅僅是幾個步驟。如果這名機器人能夠深入了解未來,就會發現擁有更多的生命值可能會對未來有所幫助。

機器人基本上會說,“哦,我不能開槍打死他,或者我可以開槍打死他這兩者沒有區別。”有時機器人甚至會射殺你。這種情況當然是個大問題。我不能寬恕隨意開槍的玩家。我們增加了一個補丁,讓虛擬機器人更關心你的授權,而不是它自己的。

問:如何讓這些概念變得更精確?

如果你把機器人看作是控製係統,你可以從信息的角度來思考:世界上發生的任何事情,在某種程度上影響著你。我們不隻是在談論你所感知到的事物,而是任何一種影響——它可能是任何在周圍世界和你之間來回流動的東西。可能是溫度影響你,或者是營養進入你的身體。任何滲透到這個邊界的世界和人工智能之間都攜帶著信息。同樣,人工智能也能以多種方式影響外部世界,也能輸出信息。

你可以把這種流動看作是信道容量,這也是信息理論中的一個概念。當你獲得高度的授權能夠采取不同的行動,這將導致不同的結果。如果這些能力中的任何一個變得更糟,那麼你的授權就會降低——因為能力的喪失對應著你和環境之間的信道容量可量化的減少。這是核心理念。

問:這個人工智能需要賦予多大的權利去工作?

賦權有一個優勢,即使你的知識還沒有完善,它也可以被應用。人工智能的確需要一個模型來說明它的行為將如何影響世界,但它並不需要完全了解這個世界以及它的所有複雜之處。與一些試圖將世界上的一切都盡可能完美了解的方法相比,你隻需要弄清楚你的行為是如何影響你自己的看法的,那麼你隻需要弄清楚你的行為到底意味著什麼。你不需要知道所有的東西都在哪裏。但你可以有一個幫助你探索世界的人工智能。它會做一些事情,試圖弄清楚某件事的行為是如何影響世界的。隨著這種模式的發展,人工智能也會更好地了解它的授權程度。

問:當你已經在虛擬環境中測試過之後,為什麼不在真實的世界裏實施呢?

擴大這種模式的主要障礙,以及我們為什麼不把它放在任何真正的機器人身上,是因為在像現實世界這樣的富裕環境下,很難計算出一個人工智能和一個人類之間的信道容量。目前有很多項目在努力提高它們的效率。我保持樂觀的態度,但目前這是一個計算問題。這就是為什麼我們把這個框架應用到電腦遊戲的同伴機器人上,這也是一種更加簡單的形式來讓這些計算問題更容易解決。

這聽起來好像讓我們的機器變得像強大的功能犬一樣。

實際上,我認識一些機器人專家,他們有意讓機器人模仿狗狗的行為。我的意思是,讓機器人像我們的狗一樣對待我們,這可能是一個我們都能接受的未來。

最後更新:2017-11-09 04:36:34

  上一篇:go 四川奇跡應邀,參加省新聞出版廣電總局《人工智能+數字出版發展現狀與未來挑戰》分享會
  下一篇:go 快遞員拿4個月薪水,機器人馱著貨架跑,複興號“站到站”送快遞,今年雙11包裹這樣送!