閱讀1007 返回首頁    go 阿裏雲 go 技術社區[雲棲]


這就是機器人選出的全世界“最好看的人”


0?wx_fmt=jpeg

這是人類的選美比賽


◆ ◆ 

導讀


【AI世代編者按】全球各種選美大賽選出的“佳麗”,你是不是一直看不慣?是不是質疑人類太主觀的眼光?曾經幻想著能有一種客觀標準,能使選美的結果讓所有人驚豔。全球首次由人工智能擔任評委的國際選美大賽,就出自這樣的初衷。但機器人的選擇,也引發了一係列爭議。


這個選美大賽名字為Beauty.AI 2.0,是第一屆由“機器”擔任裁判的國際選美比賽,由一群俄羅斯和香港的青年搞的青年實驗室(Youth Laboratories)發起,該實驗室獲得了微軟和英偉達支持。


0?wx_fmt=jpeg


Beauty.AI 2.0對來自1000多個國家的6000張自拍照進行了評估,借助算法綜合考慮了年齡、皮膚、對稱性等因素,還將參賽者的外貌與演員和模特進行了對比,最終按照年齡和性別對優勝者進行了分組評定。


以下是18至29歲年齡組排名前5的女性:


0?wx_fmt=jpeg


◆ ◆ 

機器人的審美


看到這樣的結果,你的內心是崩潰的,對不對?這不是你一個人的感覺,相信絕大多數人看到這個結果內心都會蹦出一個字。


Beauty.ai表示,很多選手都寫信表示抗議,其中一人寫道:“你們的‘機器人’價值何在?隨便逛逛商場,我就能找到比你們的選美大賽‘優勝者’更漂亮的人。”


Beauty.ai首席科學家亞曆克斯•紮沃倫科夫(Alex Zhavoronkov)則辯稱:“我也無法認同機器人選出的部分優勝者,但整體還算不錯。”


作為該算法的一個指標,AntiAgeist會評估一個人相對其真身年齡的年輕程度,將參賽者的真實年齡與係統預測的真實年齡以及此人看上去的年齡進行對比。在上圖中,Lu Sophia得分最高,因為真實年齡達到18歲的她,在機器人眼中隻有13歲。


該算法中的PIMPL指標評估了膚色,RYNKL則著眼於皺紋。


MADIS則將參選者與數據庫中的演員和模特的麵部進行了對比。其中一個組件將其與數據庫中的平均美貌進行對比,另外一個則將其與這些“美人”的特點進行對比。


最後,Symmetry Master則考察了麵部的對稱性。


Beauty.ai由Youth Laboratories負責運營,這家隻有6個人的公司專門通過技術來評估一個人的美貌和年輕程度。該公司目前的主要產品是RYNKL,可以作為單獨的手機應用下載,並且已經授權給一些整容醫院使用。該團隊還在開發和外包一些新的算法,以期應用在Beauty.ai 3.0中——這場新的選美比賽將於今年晚些時候舉行。


以下為此次選美比賽其他年齡組和性別的獲勝者:

 

0?wx_fmt=jpeg

0?wx_fmt=jpeg

0?wx_fmt=jpeg

0?wx_fmt=jpeg

0?wx_fmt=jpeg


◆ ◆ 

算法的“偏見”


另外一個令這套係統的創造者感到心灰意冷的是,他們發現勝出者都有一個明顯的特點:機器人不喜歡深色皮膚的人。


44位勝出者幾乎都是白人,隻有少數幾位亞洲人,黑人則隻有1位。盡管多數參賽者都是白人,但很多有色人種也都提交了照片,包括大量的印度人和非洲人。


隨之而來的爭議引發了激烈的討論:算法為什麼會存在偏見,並在無意間產生冒犯性的結果?


當微軟今年3月推出了“千禧一代”聊天機器人Tay時,它很快學會了種族主義言論,並在Twitter上傳播新納粹觀點。在Facebook上月去掉了負責篩選“趨勢”新聞的人類編輯後,計算機算法很快就把假新聞和粗俗消息推送到News Feed中,包括一篇有關男子用雞肉三明治自慰的文章。


雖然這次看似帶有種族主義意味的選美比賽引發了各界嘲笑,但計算機科學家和社會公正倡議者卻表示,在其他行業和領域,如果帶有偏見的人工智能係統得到大範圍應用,那絕對不是一件好笑的事情。在某些情況下,甚至會給有色人種帶來災難性的後果。


Beauty.AI由微軟支持的深度學習組織Youth Laboratories開發,它依靠龐大的照片數據庫來建立一種算法,借此評估人們的美貌。雖然有很多原因可以解釋算法為何偏向白人,但Beauty.AI首席科學官亞曆克斯•紮沃倫科夫(Alex Zhavoronkov)的主要問題在於,該項目在建立美貌評價標準時使用的數據,並沒有涵蓋足夠的少數族裔人群。


雖然該組織開發算法時並沒有將淺色皮膚作為美貌的標準,但係統獲得的數據實際上卻導致機器人裁判得出了這樣的結論。


“如果數據庫中的有色人種不夠多,就會得出偏見。”紮沃倫科夫說,他也對結果頗感驚訝。“當你訓練計算機算法識別某種形態時……你手上的數據可能不夠充分,這些數據也有可能存在偏見。”


對於帶有偏見的算法,最簡單的解釋就是:負責創造這些算法的人本身就帶有根深蒂固的偏見。換句話說,盡管人們認為算法是公正、客觀的,但這些算法卻往往會延續和放大現有的偏見。


哥倫比亞大學法學和政治學教授伯納德•哈考特(Bernard Harcourt)認為,Beauty.AI的結果“完美地詮釋了這個問題”。他曾經研究過“預測性警務”,並發現這項業務對機器的依賴越來越大。“根本不可能在選美過程中不顧文化和種族因素,得出完全中立的結果。”


此事給我們提了一個醒:“真正負責思考的是人類。盡管這種思考以算法形式體現出來,而我們也認為這種算法是中立而科學的,但本質並沒有改變。”他說。


公民自由組織最近對基於計算機的執法預測工具表達了擔憂——這類係統會使用數據預測犯罪可能發生在哪些地方——因為這些數據可能采用了有瑕疵的統計數據,因而可能加劇種族偏見,並引發有害的警務措施。


“數據受到汙染,結果也會受到汙染。”媒體爭議中心(Center for Media Justice)執行總監馬爾基亞•賽麗爾(Malkia Cyril)說。


ProPublica今年早些時候進行的一項調查發現,用於預測未來犯罪活動的軟件對黑人存在偏見,這有可能引發更嚴厲的量刑。


“這真的是人命關天的大事。”哈弗福德學院計算機科學教授索瑞勒•弗雷德勒(Sorelle Friedler)說。


弗雷德勒表示,關鍵問題在於,少數族裔在數據庫中的占比本身就比較低,因此算法很容易針對這些人得出不準確的結論,而算法的創作者卻無法發現這一問題。例如,她表示,一套對印第安人存有偏見的算法可能被視作一大成功,因為這些人在人口總數中僅占2%。


“你可能得到98%的準確率,並由此認為自己設計了一套優秀的算法。”


弗雷德勒表示,可以通過一些具有前瞻性的方法對算法進行調整,以便糾正偏見,包括改進輸入係統的數據,或者增加一些過濾器,以便確保不同種族的人都能得到平等對待。


具有前瞻性的人工智能算法並不限於刑事司法係統。一項研究發現,在網上看到高薪招聘廣告的女性遠少於男性。穀歌的照片應用去年甚至將黑人識別為大猩猩。


賽麗爾指出,計算機算法在糾正社會不平等的過程中發揮的作用非常有限。“在本應著眼於製度變化的時候,我們卻過於依賴技術、算法和機器學習。”


紮沃倫科夫表示,當Beauty.AI今年秋天舉行新一輪選美比賽時,他希望通過對算法的一係列調整來規避歧視性結果。“我們將努力糾正這個問題。”


他補充道,機器人或許根本就不是最好的選美裁判:“更令我驚訝的是算法在選美過程中使用的標準。它從大量候選人中選出的優勝者可能並不符合我自己的審美。”

 原文發布時間為:2016-09-20

本文來自雲棲社區合作夥伴“大數據文摘”,了解相關信息可以關注“BigDataDigest”微信公眾號

最後更新:2017-06-05 16:02:19

  上一篇:go  電影魔術|改變世界?喬布斯可不僅僅用蘋果
  下一篇:go  為什麼要了解科學史