44
機器人
人工智能會不會走上“邪路”?上海學者激辯,有人淡定有人擔憂
人工智能的開發,如何不會走“邪路”?
人工智能早已不是新鮮詞。但是,未來會不會像霍金說的那樣,智能機器人可能會成為人類曆史上最大的災難,或是人類文明的終結者嗎?
由上海市社聯《探索與爭鳴》雜誌社和華東政法大學政治學研究院共同主辦的“人工智能與未來社會:趨勢、風險與挑戰”學術研討會上,各領域學者展開了一場跨學科的精彩交流。
機器不靠譜?不,是人性
人工智能的深度學習,推動力究竟在於算法,還是數據?
上海交通大學電子信息學院的熊紅凱教授認為,數據才是最後關鍵的因素。現在一些大公司開源算法架構,其實隻是為了占領人工智能的市場生態,這是商業策略。
人工智能發展中的不確定性和不可解釋性,是最大的威脅。
一個最後的結果,它的不確定性和不可操作性來源於數據,即使同一個數據不同的人操作也不一樣,這就帶來很大的問題:公共安全性。這也是美國大數據醫療一直進展緩慢的原因。
人工智能是把雙刃劍。如果所有的機器都聯網,這個力量會決策我們每個人的命運。從倫理講,人類不知道將來會有怎樣的方式來決定個人命運,因為我們原來所形成的知識,是個人可認知、可掌握的。
若一切技術都是以超越人自身為推動力,“人工智能是洪水勐獸”這個說法顯然是成立的。因為對數據的操控性和選擇性,所有的人類能力都必須在機器的載體上發展,這種能力的控製性,完全不可靠,而且它會不斷演化和發展。這會給人類世界帶來極大的不確定性。人們還應真實認識人工智能背後的基理所在,如果這個方式不解決,一旦壟斷在一些大公司手裏,實際上對每個人的命運來說可能都不可控。真實原因不在於機器,而在於人性其實是不可靠的。
人和機器會在未來和諧相處
從“開放”這個角度出發,華東政法大學政治學研究院院長高奇琦教授的看法,和熊紅凱教授恰恰相反。
為什麼中國人工智能爆發最重要的場景,是基於人臉識別的安防,而西方是基於語音識別的智能音箱?因為在中國人看來,“君子坦蕩蕩,小人長戚戚”,相比於個人隱私,安全穩定更重要。為了提高社會治理的狀況,讓渡一部分個人權利和隱私,在中國人看來並非不能接受。在研究智能醫療的專家眼中,目前中國是研究智能醫療最好的國家。隻要政府和病人之間有很好的合作,那麼醫療數據就能開放給醫療大公司和研究人員,而智能醫療的發展反過來又能解決醫療資源不足的問題,造福更多的人,從而形成國家、企業與個人的良好互動。
中國人的傳統,會將兩種完全不同的力量放在一起綜合考慮,這就是“多元統一”。未來,將會出現人工智能與人類智能長期共存的情形。很多中國的專家學者、投資人認為,人和機器在未來會和諧相處。《周易》中的陰陽觀、《道德經》中的辯證思想,深刻影響著中國人的思維,我們認為物、人都是世界的一部分,人類可以與世間萬物和諧共存。在西方基督教文化看來,科技一直在挑戰神的領域,而中國沒有這方麵束縛,在技術發展上,可能會少一些倫理負擔。
不是自然科學,更不是社會科學
上海社會科學院哲學所副所長成素梅研究員,帶來了女性專家的獨特視角。
她談到,人工智能是計算機分支學科研究出來的,但是從學科性質上來講,人工智能不是自然科學,更不是一門社會科學,盡管人工智能研究者必須關注其成果對社會所產生的影響,但這並不是人工智能研究的主要內容。人工智能是科學與技術相互交叉的一個領域,一開始就具有跨學科性。
目前,人工智能不僅在日常生活中大顯神手,在工業領域和商業領域內捷報頻傳,《科學》雜誌刊文表明,機器人或自動程序已經能夠直接參與人類的認知過程。比如,賓夕法尼亞大學積極心理學中心的心理學家可以運用算法,根據推特、臉譜等社交媒體上的話語,來分析大眾的情緒、預測人性、收入和意識形態,從而有可能在語言分析及其與心理學聯係方麵帶來一場革命;普林斯頓大學的計算生物學家可以運用人工智能工具來梳理自閉症根源的基因組,等等。這些機器人或自動程度被尊稱為“網絡科學家”。
人工智能的威脅論雖然表達了人類的憂患意識,但確實為時過早。退一步講,即使未來有這麼一天到來,人類也已經在這個進程中,充分享用了人工智能帶來的恩惠,並深刻反思了有關人性、社會、文明等問題。政府在推動技性科學的同時,更應該加強哲學社會科學的研究,切實把哲學社會科學的思考,特別是倫理考量,貫穿到技性科學發展的始終,讓人文關懷成為人工智能研究者的自覺意識,使科學家們在研發人工智能的過程中,做出有利於發展人類文明的抉擇。
“落後就要挨打”=“先進可以打人”咯
人工智能在軍事領域的應用怎樣呢?
在這個問題上,各大國都處在被“劫持”的狀態。人們常說“落後就要挨打”,其暗含的邏輯就是“先進可以打人”,先進的國家可以欺壓落後的國家,即使各國不希望製造殺人武器,但又不得不製造殺人武器,因為誰也不想落後,誰也不願挨打。
上海交通大學科學史與科學文化研究院院長江曉原教授指出,實際上人工智能軍事化的危害性,並不在於其導致傷亡人數的多少,戰爭也不會因為導致傷亡較少而變得就可取。在美國紀錄片《零日》中,美國和以色列為了破壞伊朗的核計劃,聯合研發了一種超級病毒。事實上,這種超級病毒就是一種幽靈般的人工智能,它感染了伊朗的網絡之後,會自動尋找和識別特定的目標——離心機的控製器。由於病毒設計巧妙,它在當時幾乎無法被偵測出來。然而,美國人偷笑的時間並沒多久,這種超級病毒還真被發現了。不僅被發現了,而且被破解了。這就意味著伊朗及其盟友,也獲得了這種超級病毒。人工智能的軍事化應用,當然比原子彈能造成的傷亡要小,但其破壞性一樣不容小覷。
在人工智能的發展上,資本的推動是很明顯的。但是資本的增值是盲目的,而且不計後果的,關於這一點,重溫馬克思的教導很有意義。江曉原教授認為,現在對資本的恐懼要比對權力的恐懼大得多,資本比權力更可怕,是因為資本其實非常盲目。
他認為,現在不能盲目讚美人工智能,歌頌人工智能的美好,應該在媒體上多進行關於人工智能倫理方麵的探討,至少能引起各界的注意。在某些領域中,可以考慮保留低級的人工智能,保留人工智能的某些初級應用。要認識到,這個東西就像魔鬼一樣。我們盡量設法對某些指標性的東西加以明確,如各國約定在全球範圍普遍內不允許做某些事,這樣才有可能延長人類文明。
人將不再是工作的機器,挺好
上海師範大學知識與價值科學研究所所長何雲峰教授擔心的是,人工智能大量使用,會不會帶來進化方麵的負麵後果?例如,每個人都使用手機,大家變成低頭一族了,會不會導致若幹萬年以後我們的腳變成越來越短,手越來越長?當然還有其他可能的進化性負麵後果,都值得我們去關注,這種後果可能比擺脫束縛我們的那種東西,還要可怕。
除此之外,他以為人類應該要樂觀地麵對人工智能。人類進化到現在,通過人工智能,會有更多的信息獲取渠道和處理渠道,這樣人類能使自己更加強大。隨著人工智能的發展,人類勞動的簡化程度會大大提高,人會有更多的時間進行學習,變成一種學習動物,而不再是工作的機器。學習的觀念會完全改變,人會有更多的發展機會,會更多地減輕、擺脫繁重的東西,可能完全不是今天的狀態。
曆史學家不怕失業
純粹靠擺史料,靠史料“料理”曆史的史學工匠,“機器人”一定能取代,效率勝過千百倍。如果把史學看做一門人類理解自己的“思維工藝”,從人類已有的千萬年的無窮經曆裏,時時咀嚼反芻,提煉出人類智慧,用以改善人類現在和未來的處境,這一類的史學工藝創造,“人工智能”就捉襟見肘,窘態畢露。
他認為,在歡唿科技進步的同時,有必要對科技忽視人文的嚴重後果進行認真檢討,人文主義在科學家隊伍裏應該占有主導地位。價值理性是第一位的,工具理性是第二位的。科學家的自身修養是如此,科學創造也應該如此。老子說“知人者智,自知者明。勝人有力,自勝者強”。科學家必須有戰勝自我欲望無邊的“自勝者強”的意識,及早消弭企圖操控人類的各類野心,人工智能的開發才不會走邪路。
按照人類所希望的“善智”方向發展
上海社會科學院互聯網研究中心執行主任惠誌斌,探究了人工智能應用場景中的法律問題。他認為,人工智能能夠聯係大量的人、物,在聯網的基礎上產生大量的數據,再通過一係列智能化的算法。這個算法,至少目前來看還是由人來設計、去驗證、去實施的算法。在各種各樣的智能網絡應用場景裏,在鼓勵它發展的同時,如何去規避危險,如何按照人類所希望見到的“善智”方向發展?這是我們需要考慮的問題。
還要考慮如何通過一些公共政策、如何通過法律,把那些可能帶來危害的風險點找到,進行規避。他認為,人工智能碰到的法律和經濟問題,要在基本安全的框架內,探討人類和機器共同協作的方式,讓人工智能產品在公眾的監督之下透明、開放,而不是隨意設置。
題圖來源:視覺中國責任編輯:劉璐圖片編輯:徐佳敏
最後更新:2017-10-08 02:51:26