810
機器人
機器人也有歧視與偏見,人類當警惕AI陰暗麵
近年來,除了機器傷人事件,AI的歧視與偏見問題也開始顯現,人類的心靈垃圾已經汙染了機器之心。除了種族、性別、健康、經濟等方麵的歧視,人工智能還可能把不友好的目光投向一些特殊群體。
近日,因兩次“逃跑”而聞名的俄羅斯機器人Promobot再度成為媒體關注的焦點,因為它與前來視察其所在園區的俄羅斯總統普京握了手。這台機器人的出逃主要源於未被發現的程序錯誤。由於在逃跑過程中未對人類造成任何傷害,Promobot的出格行為引來諸多網友的打趣與追捧,其儼然成為網紅般的存在。
然而,人工智能黑箱裏所隱藏的錯誤與不足可並不總會引出這種“可愛”的行為,人類必須嚴肅對待AI或隱或現的陰暗麵。近年來,除了機器傷人事件,AI的歧視與偏見問題也開始顯現,人類的心靈垃圾已經汙染了機器之心。
就目前情況來看,AI的歧視主要存在於種族和性別兩個方麵。
2015年,穀歌推出了一項圖像識別的新應用,但很快便收到來自黑人用戶的不良反饋,因為該應用將一些黑人的照片判別為“大猩猩”。更有甚者,在2016年舉行的一場由AI擔任裁判的選美大賽上,這位理性的評委選出的44位優勝者中,僅有一位是深色皮膚人種,而絕大多數是白人。
AI同樣戴著歧視女性的有色眼鏡。一些由AI控製的搜索引擎在投放廣告時,有意更少地向女性用戶展示高薪職位,而且想當然地把女性與教育類、藝術類、照護類職業聯係在一起。
照此趨勢發展下去,AI還將習得更多人類世界的歧視與偏見。在大數據、雲計算等其他技術的幫助下,AI將獲得並分析越來越多人類的隱私信息,並悄無聲息地做出比人工更為精準的判斷。如此一來,當健康狀況較差、體質較弱的人去購買保險,當經濟條件欠佳的人去分期付款購買商品,人工智能係統便有可能先於人類做出判斷,無情地將弱者拒之門外。
除了種族、性別、健康、經濟等方麵的歧視,人工智能還可能把不友好的目光投向一些特殊群體。近日,斯坦福大學的一個研究團隊開發出一種新的AI算法,能夠根據頭像照片判斷一個人的性取向,準確率相當驚人。尤其是對於男性性取向的判斷,在提供五張照片的情況下,準確率能達到91%。雖然該團隊並未表明要將這種算法投入現實應用,但其蘊含的能力顯然是種潛在威脅,可能導致同性戀人群的隱私遭到曝光,加深社會對這一群體的歧視,而AI無疑就是其中推波助瀾的關鍵角色。
AI本身沒有自主意識,也沒有主觀情緒,那麼它的歧視與偏見是怎麼來的呢?源頭自然還是人類本身。造成AI歧視問題的原因大致有二。其一,AI的深度學習往往建立在大量既有數據的基礎上,而這些來源於人類社會的數據不可避免地帶有人類集體意識的各種成分,魚龍混雜,因此人類持有怎樣的偏見,則AI也自然而然有樣學樣;其二,從事人工智能與機器學習研究的科研人員以男性、白種人居多,女性、有色人種、少數族群占比較少,因此AI產品很容易沾染上其研究者的主流意識形態和思維特征,表現出研究者的主流好惡。
歧視與偏見給人類帶來了怎樣的痛苦與災難、消除歧視與偏見對於人類何其之難,相信這個社會中的每一個成員都有所體會。人工智能是人類用智慧培養起來的新生兒,若是想讓它更好地反哺人類,那麼我們必須從當前這初始階段就提高警惕,謹防自身的黑暗蔓延開去,汙染了這張白紙。
文章來源:中國智能製造網
最後更新:2017-10-08 03:13:29