134
機器人
“gay氣”真會外露?人工智能隻看臉,就知道你是不是彎的…
平常,要是看到男孩子長相清秀,把自己收拾得幹淨時髦,估計就會有一些人會在心裏說:
但是,判斷一個人直不直,真的可以靠看臉麼?
最近,斯坦福大學的科學家Michal Kosinski和Yilun Wang,開發出了一項專門“看臉”的黑科技。
隻要給這個人工智能係統看一眼照片,它就能告訴你照片裏的人是不是同性戀,而且準確率高達91%!
這項人工智能,是建立在“性向可以影響一個人的麵部外觀”這個觀點上的。
這兩位科學家相信,從在媽媽的子宮裏開始,荷爾蒙(比如睾丸素,男性荷爾蒙的一種)就影響著胎兒骨頭結構的塑造,也將在日後影響他們的性取向。
所以,這麼來說,同性戀人群會有相似的麵部特征,這些特征也許非常細微,但應該能夠被人工智能捕捉到。
他們是這麼訓練人工智能的…
首先,從美國的約會軟件上下載用戶的照片。他們一共下載了36,630位男性的130,741照片,以及38,593位女性的170,360張照片。
這些照片的主人,都在個人主頁上明確地標注出了自己的性取向。
剔除其中非白人、非成年人、看不到全臉以及漫畫頭像的照片,最後剩下了來自14,776位用戶的35,326 張照片,其中男的女的、直的彎的都有。
接著,電腦開始分析照片裏人物的麵部特征,包括臉型、顴骨、鼻子、下巴…
最終得出了4張圖,分別是直男、直女典型臉以及同性戀男女的平均臉…
從圖片上來看,相比純直男,同性戀男性的眉尾上挑,外眼角更高,鼻頭更長,嘴唇稍厚,臉型更窄,下巴更尖;
而相比純直女,同性戀女性的整個眉骨更高,嘴的位置會低一些,嘴角上揚角度沒有那麼明顯,下巴會更長…
(恕朕直言,彎的男和女都長得更好看啊…)
等到人工智能已經熟練掌握了辨別一個人是直還是彎的奧義,研究員決定考考它。
他們給它看一個gay和一個直男照片,在每人隻給出一張照片的情況下,人工智能判斷其性向的準確率能達到81%,而當把同一個人的照片增加到5張時,準確率竟高達91%。
對於直女和拉拉的判斷上,人工智能就相對沒有這麼在行了,在隻給出一張照片時,準確率隻有71%,而當照片增加到5張時,準確率提升至83%。
研究員還找來人類誌願者跟人工智能PK。
結果發現,人類在這方麵沒啥天賦,基本靠瞎蒙。
誌願者光靠看臉來判斷一位男性是gay還是直男時,準確率為61%,但在辨別一位女性的性向時,準確率隻有54%。
科學家又隨機給了人工智能1000個人的照片,同一人有5張照片,讓它去做判斷…
結果,根據人工智能的判定,其中有7%的人為同性戀,研究員表示,這也反映出了同性戀人群在總人口中的占比情況。
但是,當要求人工智能挑出其中100張“長得最gay裏gay氣的臉”時,電腦給出的100張照片裏,隻有47人確實是同性戀。
而讓它精選出其中的Top10“基佬臉”時,準確率提高到了90%!
說到這兒,肯定有小夥伴好奇…
這個人工智能究竟有什麼用?
額…好像並沒有什麼卵用…
它的開發者DrKosinski也承認,做這個項目隻是想示威,目的是警告決策者們人工智能的強大。
開發這項係統前,他還開發了一套通過分析用戶的Facebook資料,就能推斷出一個人的性格的軟件。
在去年的總統競選中,這款軟件被川普團隊用來識別不同性格的潛在支持者,針對他們不同的個性,使用不同的拉票策略,以得到他們的支持。
DrKosinski強調,人工智能的發展,同時也意味著個人隱私被暴露的必然性。
從好的方麵來說,如今越來越多的妻子開始懷疑自己的丈夫是不是gay,在Google上,“我的丈夫是不是gay?”的熱搜程度超過了“我丈夫是不是有外遇了?”,這項技術能夠幫助有這方麵疑慮的妻子早日維護起自己的權益。
而另一方麵,在一些社會中,同性戀依舊是不被接受,甚至是不合法的,這樣的人工智能會給同性戀人群的安全構成威脅。
像這樣會侵犯到隱私的人工智能,還是智障一點比較好…
點擊播放
GIF/1115K
最後更新:2017-10-08 03:19:37