閱讀510 返回首頁    go 機器人


人工智能識別性取向:披著技術外衣的麵相學

題圖來自《斷背山》劇照

文 | 愛範兒

近期,一份來自斯坦福大學的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態進行分析,推斷出人物的性取向。

但批評家卻認為,這隻是披上了人工智能外衣的偽科學和麵相學。這些早已被西方科學世界摒棄的落後觀念,如今在新科技的掩飾下,重新抬頭。

研究的狹隘性

斯坦福的研究給出了一個看似很高的判斷精確度:當人工智能對單張照片分析時,它猜對圖中男性性取向的幾率為 81%,而女性則為 71%。

當每位被分析人物的照片增加到 5 張時,算法分析男性和女性的性取向正確率分別高達 91%和 83%。

但問題是,研究人員在測試時,是按兩人一組的形式並行測試,每組人物一“直”一“彎”,因此,即使人工智能隻是瞎蒙,都能有 50%的準確率。

而且,研究人員聲稱算法的分析隻專注於五官研究,而采用的 VGG-Face 軟件可最小化流動性因素,如打光、姿勢和表情等的幹擾。

但人工智能麵部識別方向的研究人員 Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。

圖自推特

再者,這個被作為研究的基本數據(來自約會網站的圖片)本身就是有偏見的。

來自美國歐柏林大學的社會學教授 Greggor Mattson 指出,由於這些照片是從約會網站中抓取的,意味著,這些照片本身就是由用戶專門精選,用來吸引特定性取向的人。

也就是說,這些照片都是用戶演繹出來,迎合他們認為社會對該性取向人群的定位,換言之——刻板印象。

雖然研究團隊也曾將算法拿到研究以外的素材進行測試,但那些素材本身也是具有偏見的。畢竟,並不是所有男同誌都會給“我彎我自豪”這類頁麵點讚,而有點讚的人,也許也可能會趨於迎合特定刻板印象。

而他們所忽略的,是這個群體中所包含的,無數的無規律的非典型行為。

圖自 Rebel Circle

這個研究的主負責人 Kosinski 也表示,他的研究也可能是錯的,並表示“想要核實結果正確性,我們還得進行更多研究。”但如何才能確定研究不會帶有偏見呢?對此,Kosinski 的回應是:

想要測試和驗證一個結果的正確性,你並不需要理解(研究)模型的工作原理。

而 The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導性。

人工智能也是人類帶著偏見製造的新工具

圖自 the verge

在曆史的長河上,人類將自身偏見投射於當時最好工具的例子一直都很多。

而將人類外表和人的個性和本質關聯的觀念,從古希臘時期就已經存在了,而到了 19 世紀,更是被工具賦予了“科學”的假象。

當時的麵相學研究者認為,人類額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個人是誠實還是有犯罪傾向的例證。雖然這些說法早已被判斷為偽科學,但如今卻在人工智能時代“重獲新生”。

圖自 the verge

去年,來自上海交大的研究團隊還聲稱研發了一個辨識罪犯的神經網絡係統,引來了人工智能社區怒斥,三名來自 Google 的研究人員更是撰寫萬字長文批評這些研究者。

而一家名為 Faception 的新創企業也聲稱可以通過麵容分析來識別恐怖分子。

圖自 Faception

但是,人工智能就真的可以客觀地分析和研究這些數據嗎?澳大利亞國立大學的社會學講師 Jenny Davis 並不同意:

人工智能並不是真的純“人工”。

機器學習的方式就和人類學習的方式一樣。我們從文化中提取並吸收社會結構的常態,而人工智能也是這樣。

因此,它(人工智能)也會再建、擴大並且延續我們人類為它們設下的道路,而這些道路,一直都將反映現存的社會常態。

而無論是根據麵容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基於社會原有生物本質主義(biological essentialism),這是一種深信人的性取向等本質是根植於人身體的理論。

Davis 還指出,這些是“很有用”的理論,因為它可以從特定人群中提取出某種特質,並通過將該特質定義為“次要、劣勢”,來成為原本就有偏見的人群進行歧視的“正當理由”。

圖自好戲網

今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似 IAT(內隱聯想測驗)的聯想類測試來檢測算法的潛在傾向性,並發現即使算法也會對種族和性別帶有偏見。

甚至,連 Google 翻譯也難逃偏見,算法“發現”並“學習”了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉而翻譯為“他”或“她”。

說到這裏,也許大家已經可以看出,Kosinski 和 Wang 研究(斯坦福研究)的精確性已經不是最重要的了。

如果有人想相信人工智能可以判斷性別取向,(無論準確度如何)他們都會拿來用。

因此,更重要的,是我們要理解人工智能的限製性,並在它造成危害之前中和它。

The Verge 評論道。但最麻煩的,在於大多數時候,我們都沒法察覺到自身存在的偏見,那我們又怎樣可期望我們做出來的工具是絕對公正的呢?

新鮮有料的產業新聞、深入淺出的企業市場分析,輕鬆有趣的科技人物吐槽。

責編 | 劉考坤

最後更新:2017-10-08 06:12:56

  上一篇:go 人工智能拐點已至,國內外AI 醫療創業案例掃描
  下一篇:go 人工智能研發競賽 微軟AI研發團隊已經超過8000人