310
機器人
人工智能雖好,但不要忘記人文關懷
快速發展的人工智能(AI)技術已經改變世界,我們或感歎AI技術帶來的諸多便利(自動駕駛、語音助手等),或驚訝於AI技術的強大能力(AlphaGo圍棋人機大戰、打敗象棋大師的“深藍”),又或是擔心AI對人類的威脅(可替代人類工作的機器人、科幻電影中統治人類的AI等)。
伴隨著深度學習、神經網絡等技術的進一步發展,AI能做到的事情越來越多。當諸如《AI通過照片識別同性戀》這樣的研究出現,並引發學術質疑和前所未有批評後,大概許多人都會有這樣的心聲:AI雖好,但不要忘記人文關懷呀!
AI通過照片識別同性戀引發爭議
斯坦福大學公布的一項研究結果稱,在“識別同性戀”任務中,深度神經網絡的表現要比人類更好。這項研究分析了超過35000個麵部圖像後,搭建了一套可以高精度判斷一個人性取向的算法。
有用戶認為,這個工具可能侵犯LGBTQ人群個人隱私。但研究者稱,他們通過收集公開的數據集和算法後得到了論文中的結論。研究者還說,他們的研究恰恰是為了傳遞“廣泛使用的技術對LGBTQ群體隱私構成了威脅”這一信息。
在研究成果最後,作者確實表達了自己的擔憂:“數字化生活增長和AI進程加快正侵蝕性取向和其它私人信息。雖然政府和科技公司相信法律法規可反轉這一趨勢,讓個人對數字印記有更多控製權,但數字環境的管理顯然非常困難。”。
不過我們可以肯定的是,AI算法預測性取向會帶來隱私隱患,甚至個人性取向被公開還可能造成偏見和危及性命等風險。雖然作者認為算法的正確性很高,並花費了很多時間考慮是否公開論文,但這看似客觀的算法依然缺乏人文關懷(特別是工具脫離作者之手後,將帶來更多的不確定性)。
技術(如AI)應多關注人文關懷
值得慶幸的是,已經有許多企業和開發者,他們不僅重視AI技術發展,也展現出對人文情懷的關注,讓技術變得不再是那麼冷冰冰,充滿了溫暖和感動。
在微軟Build 2016上,微軟盲人程序員員工Saqib Shaikh展示了搭載Seeing AI的智能眼鏡,可以幫助他“看到”和“理解”世界。這一充滿人文關懷的時刻,也得到了開發者最熱烈和長時間的掌聲。到了今年,微軟將Seeing AI變成了iOS的全新App,能通過手機攝像頭為盲人提供幫助。
在醫療領域,我們看到AI能用於疾病的預測:意大利的一項研究顯示,AI可以在老年癡呆症狀出現前10年發現由疾病引起的大腦微小結構變化;在國內外,多加公司正研發和探索AI用於癌症診斷的技術。還有科學機構利用AI技術預測心髒病,有助於各種類型心髒病患者的治療。毫無疑問,這些都是AI技術釋放的善意。
做到人文關懷,AI技術要消除歧視
有趣的是,AI會向人類一樣產生歧視問題,這無疑也是AI技術發展要重視的一個問題。一方麵,人類研發的AI會學習到人類看待世界的角度,無論這是正確還是錯誤的;另一方麵,編寫AI算法的技術人員本身,也可能會無意識的將個人的性格喜好帶入到AI算法之中,造成各類歧視問題。
與AI用於判斷同性戀類似,有研究稱AI能根據人物頭像照片去判斷其性格,例如是否可信,是否有統治欲,甚至智商如何。也有研究稱AI還可以判斷用戶的犯罪傾向,給警察等提供幫助。但這裏有一個不容忽視的問題,如果AI依據了有偏見的數據和算法,將造成非常偏頗的後果。進一步來講,即使AI能做出準確預測,也存在一定比率的錯誤預測。
說到AI重視人文關懷,其實我們普通用戶也同樣要重視這個問題,就像上文提到的,普通用戶提供的數據,將成為AI算法的參考,這將進而影響到AI的判斷。比如聊天機器人,我們已經看到過多次例子,這些利用了自然語言處理和深度學習的機器人在於不同類型的網友交流後,開始滿嘴髒話,嚴重的甚至發展成了“種族歧視者”,早已為我們敲響過警鍾。
我們能利用AI技術,突破人類各種限製,創造一個更好世界幫助人類更好地生活,這才應該是產品和研究要實現的目的。但如果我們遠離了人文關懷,並冒著各種再現歧視的風險,可能會根除人類自身的希望。
最後更新:2017-10-08 05:04:46