CCAI 2017 | 劉燕:藝術與人工智能的明天——人機信任合作
南加州大學計算機係名譽副教授、機器學習中心主任劉燕
7 月 22 - 23 日,在中國科學技術協會、中國科學院的指導下,由中國人工智能學會、阿裏巴巴集團 & 螞蟻金服主辦,CSDN、中國科學院自動化研究所承辦,雲棲社區作為獨家直播合作夥伴的 2017 中國人工智能大會(CCAI 2017)在杭州國際會議中心盛大召開。
大會第二天下午,南加州大學計算機係名譽副教授、機器學習中心主任劉燕參與了【人工智能科學與藝術】論壇的討論,並發表了《藝術與人工智能的明天——人機信任合作》主題演講,劉燕教授認為將來人工智能與藝術的結合,主要在於人機信任合作,在提供可解釋性、可遷移性、可靠性方麵進行長足的發展。劉燕教授從DeepDream、Megenta、Angelina、Sunspring等振奮人心的最新AI藝術項目和作品入手,談人工智能與藝術的共同點、不同點。從可解釋性的角度,人工智能和藝術都是目前無法解釋的黑箱,但人工智能在黑箱解釋方麵還是有一些最新的進展。
以下為演講實錄,在不改變原意的情況下做了些許刪減和調整。
大家好,今天非常開心有這個機會,讓我談一下未來人工智能對於人類藝術方麵的結合。我今天探討的中心是人機的信任合作,我相信這是藝術與人工智能的明天。
去年,Alpha GO基本上實現了全機器性質的計算學習,打敗了人類的下棋高手。人工智能的發展是快速的,同時也如熱浪襲來,我們還沒有準備好,就已經淹沒在熱浪當中。這種大環境,也是為什麼組委會想讓我們討論一下,人工智能與藝術方麵的一些合作的原因。
技術應用於藝術,從古至今都是有的。比如,文藝複興時期,非常有名的畫家Hans Holbein作了一幅畫,裏麵有一個頭骨,我們用肉眼看的時候,不能辨別這個頭骨。其實畫家用了一種技術,他把頭骨畫在一張紙上,傾斜的放在多麵上,然後通過燈光的投影,就可以看到一個側向的頭骨。他想利用技術的方法實現光影的效果,來作為一種隱喻。其實,人工智能作為一種技術,也可以與藝術相輔相成。
現在有許多人工智能在藝術方麵的創作。比如,DeepDream,能夠創造非常美麗的,不同於我們常人想象的照片。像《盜夢空間》裏,可以從一個空間到另外一個空間一樣,DeepDream想告訴我們,通過人工智能的辦法,我們人類可以轉移到另外一個空間,看到非常不一樣的東西。DeepDream的團隊也是希望能夠幫助藝術有所發展。
還比如,穀歌的Megenta,它是用人工智能創造音樂。還有Angelina,它用人工智能創造遊戲,大家玩起來非常的新鮮。人工智能甚至還能創造電影劇本,比如說Sunspring。
人工智能在藝術方麵的發展已經非常振奮人心了,我們再來看看一些藝術家們對人工智能創造的藝術是怎樣一種看法?
我總結了一下楊安女士采訪葉永青先生的觀點,他覺得人工智能在藝術創造方麵還不能達到人類的巔峰,主要在三個方麵。
- 個性化。每位畫家都想要表現個性,想要表現一種對生活和對自然的不完美的態度。大部分機器學習的辦法是通過計算找到完美的解法。從這個角度來講,機器與人類是不一樣的。
- 表達與共鳴。這個共鳴存在很多不同的階段,比如,我在說一段話的時候,大家能夠從意識上大概理解我想要表達的意思,但如果我想表達一個非常準確的意思,我不一能夠做到。舉個例子,西班牙語對色彩的描述有很多不同的詞,再看西班牙畫家的作品,色彩非常鮮豔。所以說,表達和共鳴是由文化和語言所產生的,這個在機器學習、人工智能方麵還有長足的發展。
- 時代性。我小時候看過一部電視劇叫《渴望》,那個時候大家非常喜歡看這部電視劇,但如果把這部電視給現在的孩子看,他就不一定會覺得有意思。因為藝術反映的是一個時代的特征,隻有在那個時代經曆過的人,才有共鳴。
從這些角度來講,葉永青先生給我們做了非常好的回答,人工智能和藝術是有非常大的不同的,在這條道路上有很多的瓶頸。
我列舉了很多不同的研究問題,比如說人工智能的遷移問題,人工智能情感研究方麵的問題,還有可解釋性人工智能,即我怎麼理解這個藝術。我先就可解釋性人工智能方麵給大家一個引子。
1、為什麼需要可解釋性人工智能?
我認為其實人工智能和藝術有共同點。比如,你問一個藝術家什麼是藝術,他們每個人都有不同的解釋;再比如,當我們看到一幅名畫的時候,我們答不上來它為什麼有名,需要專家給我們解釋。
類似的,從人工智能角度來講,很多時候都是以黑匣子的方式,隻是用它,但是不知道為什麼會這樣子。所以從這個方麵角度來講,人工智能與藝術現在對於可解釋性方麵確確實實是一個非常大的難點。
2、可解釋性人工智能為什麼重要?
打個比方,在醫療AI方麵,當我們給醫生建造一個預測糖尿病的模型,病人可能不太相信模型,他們會有疑問,為什麼我有糖尿病,而另外一個人沒有。從這個角度上來講,可解釋性人工智能很重要。
另外就是信任問題。說一個經典的例子,一篇KDD2016有關於LIME算法的文章講到:其實機器很容易被愚弄。文章中做了一個非常有趣的事情,收集了100張哈士奇的照片,想要機器區分它和狼,狼的照片裏麵都有雪作為背景,哈士奇照片裏是非雪的背景,最後機器認為有雪的地方裏麵的動物就是狼。這極端的顛覆了我們的常識,也說明了為什麼我們需要可解釋性的人工智能。
通過可解釋人工智能,有可能提高人們對藝術的理解。什麼時候什麼樣的作品能讓人們產生美感,以及知道這個時候我們如何的評價和估價藝術作品,從這些角度來講,其實可解釋性是非常重要的。
3、可解釋性人工智能的方法
關於可解釋性人工智能大概可以分為兩種,一種是關於間接解釋,利用的辦法是解釋預測結果,看一看深度網絡是怎樣做預測的。比如,可以看看在深度學習裏麵,哪些特征是非常重要的,或者改變一下網絡的構造,使它能夠解釋這個模型。
在間接解釋這方麵,我的研究成果裏運用了模仿學習:主要想法是說我們可以先用一種深度學習的辦法,去建一個模型,之後我們可以通過小數點後麵的值,大概判斷出它的不同區間的預測。通過這種辦法我們把數據放在簡單的模型裏麵,我們用的是一些決策樹的模型,這樣的模型比較容易解釋,同時又能夠模仿,這是非常好的方法。
直接解釋方麵,有一種神經交互的檢測係統,我們可以通過深度學習的模型看一下不同的特征之間是怎麼樣交互的,這樣通過這種交互,我們就能夠得到正確的方程式。這樣也能夠幫助我們解釋。
很多時候大家都在問,十年之後什麼工作會被人工智能取代?我認為藝術是最有創作性的工作,它很難被取代。
所以我認為將來人工智能與藝術的結合主要還是人機信任合作,在提供可解釋性、可遷移性、可靠性方麵,能夠進行長足的發展。這樣我們能夠同時利用機器擅長的方麵和人擅長的方麵,創作最好的藝術。
謝謝大家!
來源:CSDN
最後更新:2017-08-13 22:37:57