閱讀497 返回首頁    go 機器人


未來世界劇樣?人工智能正介入人類情感

人工智能從走進我們的眼球到現在,正逐步在我們周圍逐漸產生影響力。在社交媒體上做定向廣告,篩選求職者,確定機票價格,通過語音識別控製中央暖氣係統,創造文化輸出,科技創新進步,或調節交通流量等,人工智能在人類生活中的任務越來越多。

馬斯克預測,到2017年底,特斯拉無人駕駛汽車將能夠在美國各地安全行駛,而無需人工參與。社會型機器人生活在人類周圍,能夠在十年內完成許多家用或護理型任務。

人們普遍認為,到2050年,我們將能夠在這些特定領域之外的其他方麵也獲得進展,最終實現通用人工智能(AGI)。AGI是微軟發布的新概念操作係統Singularity的一部分。其理念是計算機能夠在任何認知型任務上超越人類,而人機融合也變得極為普遍。在那之後會發生什麼,誰都說不準。

你有人工智能策略嗎?你希望有嗎?

有一種有趣的想象是在人類身體裏安裝計算機零件,從而令人類更快地處理數據。人工智能領域中的一些人設想的“神經網格”可充當大腦外部的額外皮層,將我們與電子設備連接起來,其速度和效率都很高。這將是機器零件的重大革新,也就是說“半機器人”身體中的電子心髒起搏器和鈦合金關節等。未來人工智能的重點將放在軍事和國防應用上,完全自主武器的概念非常具有爭議性。這種武器係統可以搜索、識別、選擇和摧毀一個基於算法的目標,並從過去的安全威脅中吸取教訓,但是卻並沒有人類參與。這是一個相當可怕的概念。

這些關於人工智能主宰人類未來的設想,近乎科幻的反烏托邦,讓人聯想起《終結者》的場景。

從冷戰時期的“核武”對峙到雅瑪人預言的“世界末日”的2012年,人類都活了下來,到如今人類距離毀滅或許還有一段路要走,但如今圍繞人工智能道德倫理的警示卻已經敲響了警鍾。就在上個月,機器學習算法已經受到了抨擊,因為它主動建議亞馬遜用戶製造炸彈組件,在招聘廣告中體現性別不平等以及通過社交媒體傳播仇恨信息等。這種錯誤的大部分原因在於機器學習的數據質量和性質。機器會從人類數據中得出不那麼完美的結論。如今,這種結果對算法的管理和日常生活中的人工智能機製提出了嚴肅的問題。

對人工智能倫理和法律的需求

為人工智能操作和監管製定清晰的道德體係是必要的,尤其是在政府和企業在某些方麵擁有優先權的時候,如獲取和維持電力等。以色列曆史學家尤瓦爾·赫拉利就無人駕駛汽車和電車難題的悖論進行了討論。像麻省理工學院的道德機器這樣的創新項目試圖收集人類對於機器倫理的數據。

但是,倫理並不是唯一一個涉及人工智能和人類健康問題的領域。人工智能已經對人類產生了重大的情感影響。盡管如此,作為人工智能研究的一個課題,情感也依然被忽視了。

你可以隨意瀏覽下過去兩年裏在科學學術數據庫的網頁上發布的3542篇關於人工智能的同行評議文章。其中隻有43篇,即1.2%,包含“情感”一詞。真正描述了人工智能情感研究的文章就更少了。在考慮Singularity係統時,情感應該被納入人工機器認知結構考慮的範疇。然而99%的人工智能研究似乎並不認可這一點。

人工智能了解人類的感受

當我們談論人工智能中的情感時,我們指的是幾種不同的東西。一是機器能夠識別我們的情緒狀態並采取相應的行動。情感運算領域正在快速發展,通過生物計量傳感器來測試皮膚反應、大腦電波、麵部表情和其他情感數據。大多數時候,計算是準確的。

這一技術的應用既可以是善意的也可以是邪惡的。公司可以根據你對一部電影的情感反應獲得反饋,並通過智能手機實時向你出售相關物品。政客們可能會精心打造能夠吸引特定受眾的信息。而社交機器人可能會調整自己的反應,在醫療或護理環境中更好地幫助病患,數字助手則可能會用一首歌來幫助提升你的情緒。市場力量將推動這一領域的發展,擴大其覆蓋範圍,並完善其能力。

我們如何看待人工智能呢?

這是人工智能的第二個情感領域。人類對人工智能的情感反應還沒有什麼進展。人類似乎想要與人工智能實現聯係,就像我們對待大多數技術一樣,把人的個性與無生命的物體聯係起來,讓電器擁有目的性,並將情感投射到我們所使用的技術上,例如“它對我很生氣,這就是它不起作用的原因”等等。

這就是所謂的媒體等同(Media Equation)。它涉及到一種雙重思考:我們在理智的認知上明白機器不是有知覺的生物,但我們在情感上卻會對它們做出反應,就好像它們擁有情感一樣。這可能源於我們人類最基本的需求,即人際關係和情感聯係,如果沒有這些,人類就會變得抑鬱。這一需求驅使人類去與其他人和動物實現聯係,甚至是機器。感官體驗是這種結合驅動和獎勵機製的重要組成部分,也是快樂的源泉。

虛假社交

當我們的環境中不存在聯係和歸屬感的體驗時,我們會通過電視、電影、音樂、書籍、視頻遊戲和任何能夠提供沉浸式社交世界的東西來複製這種體驗。這被稱為社會替代假說(Social Surrogacy Hypothesis),一種由社會心理學的實證支持的理論,它正開始被應用於人工智能。

人類的基本情感是有依據的,即使是麵對虛擬的人工智能。例如麵對數字助理的恭維所表現出的開心,麵對拒絕抵押貸款申請的算法時表現出的憤怒,麵對無人駕駛汽車時表現出的害怕,麵對Twitter的人工智能拒絕驗證自己賬戶時表現出的難過(我現在還在為這個問題而傷心)。

機器人

人類麵對有實體的人工智能的情感反應更強,也就是說機器人。機器人越像人類,我們對它的情感反應就越強烈。我們被擬人化的機器人所吸引,向它們表達積極的情感,當看到它們受到傷害時,我們會產生同情和不快的感覺。如果他們拒絕我們,我們甚至會感到難過。

然而,有趣的是,如果一個機器人幾乎完全像人類一樣,但又不是完美的人類,我們對它們的評估會突然下降,從而拒絕它們。這就是所謂的“恐怖穀”理論,由此產生的設計理念是在現階段讓機器人看起來不那麼像人類,除非有一天我們能把機器人製作地和人類一模一樣。

顯然,人們可以從與人工智能的互動中體驗到真實的情感。但是,我們是否會在無人駕駛汽車、虛擬助手、機器人教師、清潔工和玩伴之外,錯過一些離自己不那麼遙遠的東西?

這一場景讓人想起了Harry Harlow著名的實驗,在那裏,被孤立的猴子們可以選擇有著柔軟毛發的“母親”,而不需要通過冰冷的鐵絲網領取分發的牛奶。我們是否能在技術上實現我們想要的一切,並意識到人類基本的情感需求與現實世界感官體驗的樂趣是不存在的?至於對未來來說較為奢侈的東西,我們是否會追求與大批量生產的垃圾食品相對立的東西,即真正的感官體驗和與真人的接觸,而不是機器人?

答案是,現在還不知道。但是,99%的人工智能研究沒有關注情感,這一事實表明,如果情感確實在人工智能中發揮更大的作用,那麼這要麼是事後的想法,要麼是因為情感數據讓人工智能設備及其雇主能夠擁有更多權力和金錢。數字人文主義計劃可能會幫助我們記住一點,即當我們朝著Singularity係統與人機融合進發時,我們不應該忽視自身古老的哺乳動物大腦以及它們對情感紐帶的需求。OpenAI項目是朝著這個目標邁出的一步,它的目標是讓所有人都能享受到人工智能的好處。那麼讓我們更進一步,在人工智能領域考慮下情感健康。誰又知道這會給我們帶來什麼呢?

“Me社區”正是這樣一個以大數據為基礎、人工智能為主題的產品。一款以用戶喜好、習慣為學習數據,人工智能應用從而實現萬物互聯共享的平台。用戶不僅能在me社區獲取及分享精彩的、好玩的生活內容,還可以通過人工智能機器人連接生活的一切。

最後更新:2017-10-12 22:54:07

  上一篇:go 投資者注意了,人工智能發展最大的製約因素是這個!
  下一篇:go 色係漫畫:機器人的頭