12
機器人
人工智能AI工具已經出現了明顯的種族和性別偏見
導語:英國媒體《衛報》今日發表評論文章指出,人工智能已經開始出現了種族和性別偏見,但是這種偏見並非來自機器本身,而是計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念。科學家唿籲,應當建立一個監管機構,去糾正機器的這種行為。
以下是文章主要內容:
讓計算機具備理解人類語言的人工智能(AI)工具已經出現了明顯的種族和性別偏見。
這些發現令人擔憂現有的社會不平等和偏見正在以新的、不可預知的方式得到強化,因為影響人們日常生活的大量決策正越來越多地由機器人做出。
在過去的幾年裏,穀歌翻譯等程序的語言翻譯能力有了顯著提高。這些成就要得益於新的機器學習技術和大量在線文本數據的使用,並在此基礎上對算法進行訓練。
然而,最新研究顯示,隨著機器越來越接近於掌握人類的語言能力,它們也在吸收隱藏於語言中的根深蒂固的偏見。
巴斯大學的計算機科學家、論文合著者喬安娜·布萊森(Joanna Bryson)說:“很多人都認為這表明人工智能(AI)存在偏見。不,這表明我們有偏見,人工智能正在有樣學樣。”
但布萊森警告說,人工智能有可能強化現有偏見,因為算法與人類不同,可能無法有意識地抵製學到的偏見。“危險在於,你擁有的人工智能係統沒有一處零部件明確需要依靠道德觀念驅動,這就不好了,”她說。
微軟去年推出的Twitter機器人因不當言論而緊急下線
上述研究發表在《科學》雜誌上,重點關注一種名為“單詞嵌入”機器學習工具,後者已經改變了計算機解讀語音和文本的方式。有人認為,下一步科技發展將自然而然地涉及到開發機器的類人化能力,如常識和邏輯。
“我們選擇研究單詞嵌入的一個主要原因是,近幾年來,它們已幫助電腦在破解語言方麵取得了巨大成功,”這篇論文的資深作者、普林斯頓大學計算機科學家阿爾文德·納拉亞南(Arvind Narayanan)說。
這種方法已經在網絡搜索和機器翻譯中使用,其原理是建立一套語言的數學表示式,依據與每個單詞同時出現的最常用單詞,將這個詞的意思提煉成一係列數字(也就是詞向量)。也許令人驚訝的是,這種純粹的統計方法似乎能夠捕捉到每個詞所在的豐富的文化和社會背景,這是字典無法定義的。
例如,在數學“語言空間”,與花朵有關的詞匯往往與描繪心情愉悅的話語聚集在一起,而與昆蟲相關的詞匯則往往與心情不愉快的詞匯同時出現,反映出人們對昆蟲與花朵的相對特點所達成的共識。
最新的文件顯示,人類心理實驗中一些更令人不安的隱性偏見也很容易被算法捕獲。“雌性”和“女性”與藝術、人文職業和家庭的聯係更緊密,“雄性”和“男性”與數學和工程專業更為接近。
而且,人工智能係統更有可能將歐美人的名字與諸如“禮物”或“快樂”之類的愉快詞語聯係在一起,而非裔美國人的名字通常與不愉快的詞語聯係在一起。
研究結果表明,算法與隱式聯想測試擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人麵孔聯係起來。
這些偏見會對人類行為產生深遠的影響。一項先前的研究表明,相對於非洲裔美國人,如果申請者的名字是歐洲裔美國人,即使簡曆內容相同,後者所能獲得的麵試邀請將比前者多出50%。最新的研究結果表明,除非采用明確的編程來解決這個問題,否則,算法將與現實社會一樣,充斥著相同的社會偏見。
“如果你不相信種族主義與姓名存在聯係,這就是例證,”布萊森說。
研究中使用的機器學習工具是在被稱為“通用爬蟲”語料庫的訓練數據集中接受訓練的,其中的8400億個詞語都是從網上公布的材料中選取的。當研究人員把訓練數據集換成穀歌新聞的數據對機器學習進行訓練時,也出現了類似結果。
牛津大學數據倫理和算法領域的研究人員桑德拉·沃徹(Sandra Wachter)說:“世界存在偏見,曆史數據存在偏見,因此,我們得到帶有偏見的結果,不足為奇。”
她補充說,算法不僅代表一種威脅,也可能為采取適當方式解除和對抗偏見提供機會。
“至少利用算法,我們可能知道算法會在什麼時候出現偏差,”她說。例如,人類會在解釋為何不雇傭某人時說謊,與此相反,算法不會撒謊,不會欺騙我們。”
然而,沃徹說,問題在於如何從旨在理解語言的算法中消除不恰當的偏見,同時又不剝奪它們的解讀能力,這將是具有挑戰性的工作。
“原則上,我們可以建立一些係統對帶有偏見的決定進行檢測,然後采取行動,”沃徹說,並與其他人一起唿籲建立一個人工智能監管機構。“這是一項非常複雜的任務,但作為一種社會責任,我們不應回避。”(斯眉)
最後更新:2017-10-08 01:17:00