223
機器人
23條索命鐵規,人工智能若觸發一條,自毀功能立即起效,無人能關閉
人類和人工智能機器人最大的區別是什麼呢?很多人第一反應可能是想到:機器人各方麵能力很強,特別是機器人的大腦比人腦要強大得多,可以儲備大量的知識並加以運用。或者還會想到:機器人沒有感情,而人類有七情六欲。然而,真相真的如此片麵嗎?
其實,機器人和人類最根本的區別是:機器人是人類製造出來的,說難聽點機器人就是人類的附屬品,是人類的奴隸。所以,機器人不能違背人類的意願,做出危害人類生命的事情。
理論上,隻要是有自主意識的生物都不願意成為其他動物的工具,比如動物園裏的動物內心並不願意被囚禁,隻要能夠反抗就會反抗。那麼,擁有高級智能的仿生學機器人是否也會反抗人類的統治呢?
科學家們在發展人工智能的時候也考慮到了這一個問題。他們認為,為了人類的安全,機器人也應該有機器的法律。於是,全球科學家簽署了關於人工智能發展的23條原則。致力於建設出一個能夠被人類控製的人工智能係統,從而保證人類文明的安全。
這份文件一般稱為《阿西洛馬AI原則》,一共23條人工智能發展與管理原則。在這23條原則中存在著兩個最具風險的問題。
根據人工智能機器人(以下簡稱為 AI )的發展與管理原則,我們可以總結出:AI在任何情況下都要以保護人類不受傷害作為第一要務。也就是說,AI一定不能傷害人類,還要竭盡所能保護人類的生命安全。我們要麵對的問題是,人類如何保證AI一定會遵守這個原則?
還有一個問題,倘若AI違背了三大原則,控製人類製造的武器反過來與人類為敵。那麼,人類該如何應付在各方麵都比人類厲害的AI呢?
很顯然,這是一場搭上全人類命運的豪賭。贏,就贏得了人類文明的輝煌未來;輸,就輸掉了人類文明的所有,甚至是全人類的生命。
但是我們又不得不賭,因為這是人類文明發展的必然趨勢,是人類文明升級為宇宙文明的必經之路,所以我們隻能去順從這種趨勢,並在這種趨勢中力爭上遊,努力取得最終的成功。
最後更新:2017-08-26 00:00:35