閱讀298 返回首頁    go 機器人


人工智能為何無法將互聯網從色情內容中拯救出來?

“我今天不打算進一步去定義我所理解的那種在速記中被包含的內容,”硬核色情片”,也許我永遠也不會成功地做到這一點。但我知道,當我看到它的時候,它的動作畫麵就不是這樣了。”——美國最高法院大法官波特•斯圖爾特

1964年,最高法院推翻了對Nico Jacobellis的淫穢指控,他是一名克利夫蘭劇院經理,被控散布淫穢內容。

這部電影是Louis Malle的“情人”,由Jeanne Moreau扮演的法國家庭主婦,厭倦了她的媒體大亨丈夫和她的玩伴,在和一個年輕男人一起度過了一個炎熱的夜晚後,就收拾起來離開了。

我的意思是說,“熱”指的是很多巧妙的屏蔽,沉重的唿吸和一個短暫的乳頭——基本上,你在有線電視上看不到的東西。

用六個簡單的詞,斯圖爾特概括了一種近乎不可能的行為,即對色情內容進行單一定義:“當我看到它時,我就知道了”。

自1964年以來,人們對性的態度發生了顯著的變化。

在Jacobellis麵對最高法院後不久,美國經曆了一場性革命,隨後是20世紀70年代的色情熱潮,以及最近的互聯網時代。

我們已經走過了很長一段路,但有一件事是一樣的:我們仍遠未達到對色情或淫穢內容的普遍定義。

但是,不受限製地訪問所有淫穢、肮髒和可疑的東西,使得審查工具激增,從理論上講,這些工具使用了算法和先進的人工智能程序來識別色情內容並將其剔除。

去年,Twitter收購了小型人工智能創業公司Madbits,根據《連線》雜誌的報道,該公司開發了一個程序,可以在99%的時間內準確識別色情內容,並提醒用戶。

上月末,雅虎開放了自己的深度學習人工色情過濾器,而其他互聯網公司也在進行類似的項目。

幾十年來,大公司一直在為清理互聯網而投入大筆資金。

問題在於,審查是一種滑坡,淫穢內容本身就是主觀的。

如果我們不能就什麼是色情內容達成一致,我們就不能有效地教我們的計算機“當他們看到色情內容時知道它”。

無論技術的複雜程度或明顯的誤差幅度,色情過濾器仍然依賴於人類來教他們什麼是什麼不是色情。

在萬維網的早期,美國的圖書館和學校基於基本的關鍵詞搜索實現了過濾,以便繼續遵守《兒童互聯網保護法》。

正如其名,該法案試圖保護兒童不受互聯網黑暗的影響,特別是“圖片是:(a)淫穢內容;(b)兒童色情;或(c)對未成年人有害(對被未成年人訪問的電腦)。”

但事實並非如此。

2006年,紐約大學的布萊南正義中心發布了一份關於互聯網過濾的報告,該報告將早期關鍵詞過濾和他們的人工智能接班人稱為“強大的、往往是非理性的審查工具”。

該報告還稱,“過濾器將複雜且無限變化的現象稱為人類表達,這一現象在看似簡單的範疇內存在。他們把表達的價值和意義降低到孤立的單詞和短語。一個不可避免的後果是,他們阻撓和限製對健康、科學、政治、藝術和其他許多領域的研究。”

該報告發現,受歡迎的過濾器莫名其妙地屏蔽了Boing Boing、GLAAD、攝影師Robert Mapplethorpe和超級碗等網站,並經常反映出他們的創造者的政治和社會偏見。

盡管雅虎和穀歌的人工智能濾鏡已經取代了關鍵字搜索,但它們仍然依賴於人類來教他們什麼是工作,什麼是不安全的。

正如Facebook最近發現的那樣,圖像也不像語言那樣具有分裂性。

9月初,該社交網絡因違反社區標準而被撤下這張照片,遭到了廣泛的抵製。

1972年獲得普利策獎的照片顯示,一名9歲的裸女在越南戰爭期間逃離了凝固汽油彈襲擊。

Facebook最初之所以撤下這張照片是因為違反了它的社區標準,“雖然我們認識到這張照片是標誌性的,但我們很難區分照片中的裸體兒童照片,而不是其他照片。”

但正如《紐約時報》報道的那樣,在數千名用戶將這張照片發布到自己的時間軸上以示抗議後,Facebook恢複了原來的帖子。

“我們通常認為,一個裸體兒童的形象違反了我們的社區標準,在一些國家甚至有可能被視為兒童色情作品。”

在這種情況下,我們認識到這幅圖像在記錄某一特定時刻的曆史和全球重要性。”

目前尚不清楚這張照片是如何被標記出來的,但無論是人類還是人工智能,還是兩者的混合,底線是:有時候一個裸體的孩子不隻是一個裸體的孩子。

這並不是Facebook第一次因為審查許多人認為是“幹淨”的圖片而受到批評。

由於在哺乳照片和乳房照片的相關信息中刪除了暴露女性乳房的帖子,社交網絡不斷遭到攻擊。

最近,它又從色情和藝術的細微界限中吸取了教訓,刪除後又恢複了一段視頻。視頻中,一名黑人女子在Facebook上畫了自己赤裸的身體,以引起人們對警察暴行和“黑人生命物質運動”的關注。

現實世界中也充斥著關於什麼是藝術和什麼是色情的爭論。

1990年,辛辛那提的當代藝術中心和它的導演被指控,並被無罪釋放,因為他的攝影作品被指控為淫穢物品。

這是美國第一次對一家博物館提起此類指控,而在共和黨領導的全國辯論中,有關同性戀和SM的照片也成為了焦點。

檢方認為,由美國國家藝術基金會資助的這場展覽構成了色情作品,而辯護方則將其定義為藝術。

這個案子證明,有時候一個人的屁股上掛著一個牛鞭,他的屁股上掛著一個牛鞭。

這也證明了我們對藝術的了解,無論多麼有爭議,都不是總能保證的。

我們的個人偏見繼續破壞我們獲取信息和言論自由的權利,盡管互聯網過濾技術已經取得了進步。

我們可能永遠都不會同意色情的真正含義,但如果沒有一個通用的定義,我們的機器就會成為我們自己觀點的管道。

當我們看到它的時候,沒有一個人能聲稱知道它,也沒有多少代碼能改變這一點。

最後更新:2017-10-08 03:45:47

  上一篇:go 機器人給馬看病,診斷準確率高達89.7%
  下一篇:go 馬雲說:人工智能已經來臨。你該怎麼應對?