606
機器人
跟人類恐懼被統治相比,機器人更擔心自己被扼殺!
出品丨犀靈機器人培訓
作者丨 機器人
轉載自機器人
似乎每個月都會有一些關於人工智能(AI)如何偷走我們的工作、傷我們的心,或者直接把我們所有人都殺光的新聞標題或電影出現。但實際上,機器人更擔心人類因此將其扼殺……
似乎每個月都會有一些關於人工智能(AI)如何偷走我們的工作、傷我們的心,或者直接把我們所有人都殺光的新聞標題或電影出現。
這不僅僅是一個勒德分子(一個害怕或者厭惡技術的人,尤其是威脅現有工作的新技術的形式。)的問題。和埃隆·馬斯克一樣,一個技術愛好者經常會援引對人工智能的恐懼和厭惡,把它比作一個邪惡的惡魔,必須通過國家的力量來驅散它。隨著所有這些反對AI偏見的出現,自由主義者和技術專家們將站在那些想要壓製這些技術的立法者和學者麵前。
人們常常對新生事物產生畏懼。無論是織布機還是智能手機的興起,人們從未停止過擔心。過去,反科技的爭論已經被得到了很好的解決。約瑟夫·熊彼特(Joseph Schumpeter)等經濟學家指出,創造的行為必然包括破壞舊的、通常過時的、低效的、生活和生產的方法。但是這種破壞帶來了新的生活:新的機會、商品和服務,以及新的生活方式,沒有這些我們將無法生活。從經濟上來說,一項顛覆性技術帶來的工作的數量和質量總是會超過那些被小心翼翼地保護著的。在文化上,社會經受住了許多人聲稱的會導致社會衰退和災難的暴風雨。
但是一提到人工智能,似乎有些不同。技術變革的步伐似乎太快了。智能機器的想法似乎與我們太相似,無法給人以安慰,而對機器替代人類的原始恐懼也變得越來越嚴重。不幸的是,這些擔憂已經轉移到學術和法律層麵的技術上,就像亞當·塞勒(Adam Thierer)、雷蒙德·羅素(Raymond Russell)的新莫卡特斯中心(Mercatus Center)的研究,以及你真正的討論。一不小心我們偏執的想象中最糟糕的行為可能會導致法規將我們從健康、製造和交通的驚人發展中排除出去。
首先,很重要的一點是要弄清楚這條“線”到底是什麼。科幻小說中關於殺手機器人和非人道的未來的故事就是這種虛構的東西。人工智能技術的實現也會變得更加平凡,更加不切實際。它們將是平凡的,因為當最有效的時候,它們將會如此無縫地融入我們的環境,幾乎是無法察覺的。但它們將會非常棒,因為它們有可能拯救數百萬人的生命,節省數十億美元,讓我們的生活更輕鬆、更舒適。
考慮一下製造業。許多人擔心機器人技術和人工智能會給傳統工作帶來風險。但即使是最令人擔憂的分析自動化對工作的影響的研究發現,絕大多數的工人也會很好,那些受影響的人可能會找到更好的工作,而自動化會提高他們的工作質量。但與此同時,根據麥肯錫(McKinsey)和公司的數據,人工智能對製造技術的改進,可能會在2025年實現約1.4萬億美元的價值。這個巨大的數字也代表著最不富裕的一些人的真正儲蓄,而且很可能會加劇貧富差距。
或者考慮一下醫療保健。醫生們已經使用了人工智能增強技術來指導他們進行精確的手術,幫助他們更有效地診斷疾病,甚至幫助病人在很長一段時間內跟蹤健康情況。這些技術可能確實挽救了生命,在接下來的10年裏,他們預計將在我們失控的醫療保健行業中大量減少成本,可達數千億美元。
防止人工智能技術為數百萬人生活帶來真正的風險,這不是不切實際的。這就像每年通過阻止無人駕駛汽車的發展,允許成千上萬的可預防的高速公路死亡一樣簡單。
這些隻是我們在報告中強調的幾個例子。許多研究技術問題的學者認為這並沒有想象中樂觀。他們認為人工智能技術的風險——無論是勞動力轉移、人身安全,還是完全不同的影響和歧視——都是“先停下來,再問問題”的方法。他們提出的法規將有效地冷卻人工智能研究;事實上,一些主張這些立場的人明確認識到這是他們的目標。
有趣的是,對於傳統的關於自動化的擔憂,即勞動力市場的流離失所和收入效應,正日益被存在風險和社會歧視的新擔憂所超越。在metanarUNK結構的方麵,是對“超級智能”和“硬”人工智能的廣泛關注這一觀點是馬斯克在2014年出版的《超級智能》一書中所采用的。然而,正如我們在論文中所討論的那樣,在科學界存在著許多分歧,即這些結果在物理上是否可行。然而,正如我們在論文中所討論的那樣,科學界和物理界上對此存在著很大的分歧。嘿,如果情況更糟,我們總是可以把機器的電源拔掉。
對於大多數讀者來說,更熟悉的是當天社會政治關注的擔憂。人工智能很大一部分對抗者都來自於那些不害怕社會末日的批評人士,但這種算法和機器學習軟件可以進一步鞏固社會差距。例如,提供對某一特定受保護群體進行加權的輸出的算法會立即被懷疑。人們擔心的是,一個被“黑盒子”統治的社會(使用一個由評論家Frank?Pasquale創造的術語)將會以難以察覺的方式給社會分層,從而將進一步加劇社會的兩極分化。
當然,矽穀是一個少見的自由的地方,所以你可能會認為,批評者會認為他們是在人工智能技術中積極對抗偏見的天然盟友。事實並非如此。人工智能的批評者認為,我們需要“及時並提前立法”,以領先於創新者,並迫使他們去做政府所說的事情。他們唿籲建立大量新的政府辦公室和機構來控製人工智能技術,從一個聯邦人工智能機構,到一個“聯邦機器人委員會”,到一個“國家算法技術安全管理”。毫無疑問,隨著繼續集成人工智能技術的發展,我們周圍的一切都與軟件密不可分,這樣一個聯邦人工智能機構的創建最終可能會控製住你周圍的一切。
有些人想通過法院來暗中監管。例如,法學教授Danielle Keats Citron唿籲通過一項她稱之為“技術正當程序”的法律原則,對算法和人工智能技術進行“精心設計的質量控製的審查模式”。白宮在2014年發布的一份關於隱私和大數據的報告,似乎是在對一項更嚴格的行政調查過程做出回應,唿籲監管機構對算法進行“嗅探”,以“對受保護的階層產生歧視性影響”。當然,很少有創新者願意公開打破法律,不公平地影響某些群體,但這種聯邦調查,如果不是精心組織,就會冒著變得過於狂熱的政治迫害的風險。
這些監管建議與他們尋求解決的少數問題相比,產生了更多的問題。如上所述,專橫的監管製度將使我們喪失數萬億美元的經濟增長和成本,大幅改善生活,拯救世界各地數百萬人的生活。但即便是一個更寬鬆的監管體製或責任結構,也可能讓人工智能的發展降溫,而這也會產生類似的效果。
事實上,還有更好的方法來解決這些問題。我們的機器變得越來越智能。難道我們的規章製度不也應該如此嗎?過去的命令與控製模式是行不通的,尤其是因為監管者需要作出明智決定的許多信息,對於那些在這些技術上工作的開發人員(特別是在機器學習方麵)並不明顯。
那麼,政策製定者應該學習什麼呢?謙遜,教育,與學者、創新者和工業合作。大多數的擔憂都將通過競爭和認證的市場來解決。在那些大問題確實存在的地方——比如人工智能技術應用於執法技術,或者開發“智能武器”——或許更多的預防措施是有根據的。但在絕大多數情況下,交流和正常的責任工具以及法律補救措施將足以完成這項工作。
人工智能技術給我們帶來的好處將是巨大的。因此我們必須確保人類不去扼殺機器人。
最後更新:2017-10-08 03:39:37