一個java工程師眼裏的人工智能
今天和大家一起分享一篇由一位java工程師所認識的人工智能。你覺得未來人工智能能替代多少勞動力呢? 人工智能的總體介紹
人工智能方向的原因 真心推薦看一下《奇點臨近》,裏麵的加速回歸理論。主旨是:技術的發展和普及速度是指數級加速的。不信你自己想想,從農業到蒸汽機用了多久?從蒸汽機到石油用了多久?IT行業是啥時候出現的?PC是什麼時候出現的?windows是哪年出現的?(它火起來的時候我已經從老媽肚子裏出來了)互聯網出現了幾年?諾基亞倒下花了多久?智能機出來幾年?蘋果在中國如日中天之前是啥樣子的?(也就各位數年度) 那麼我們不禁要問,一個技術的範式迭代從出現到普及,如果現在和未來是指數速度加速的,那麼下一個大規模改變我們生活的技術會是什麼?我指範式迭代(顛覆性的改變)。它會花多久讓我們接收這個技術? 讀研的過程中,我發現一件事,導師不是圖像就是數據挖掘,竟然70%是人工智能相關。像複旦,幾乎清一色的數據挖掘。實驗室固然不能體現社會,但一個技術必然是先在實驗室出現的(很多年不是在中國的實驗室,當然這次也不例外)。不但是中國,國外的實驗室,人工智能成為極火的方向。當然,曆史上出現過人工智能的泡沫時代,lisp出現的那幾年和80年代,人工智能都曾被認為是革命,徹底的革命。但很快,熱情就下去了。因為不成熟,不成熟的原因,永遠不是技術無法達到(當然,確實沒那麼成熟的技術),是因為市場不到時候接收。為啥這麼說?iphone都沒辦法被接受,市場會接受更酷的產品嗎? 我估計當中國能接受vertu(雖然vertu的主要市場現在也在中國,但離“接受”這個詞差遠了),家庭裏xbox、psp比較普及的時候,蘋果成為街機的時候,就差不多該是新迭代出現的時候了。而,我們可以感覺到,這一天很不遠了。 所以,下一次範式迭代,應該是人工智能(6大子方向齊頭並進,各有千秋) 如果,Kurzweil是對的,一個很酷的人工智能產品的出現,會在幾天內在全球普及,公司會迅速登頂。穀歌看到了,所以有了奇點大學;微軟看到了(各位去微軟的網站上看看都招啥人,90%此方向)。 而,人工智能切入市場的角度,第一可能是遊戲(中國馬上會流行畫麵控的xbox類平台單機遊戲),第二可能是獨立應用產品(比如照片自動分類,音樂自動分類,桌麵人工智能)。 人工智能核心技術 我覺得這個是我寫這片文章的目的。隨便一本書都會縱覽一下整個領域,但是我看了很多書,幾乎都是隻管自己領域去了。上麵說了,核心包括:
可以得出一個結論,人工智能處理的東西,一定是有屬性(特征)的。(廢話,要不拿什麼分類) 所以,核心中的核心不在屬性選擇上(雖然很重要),而在分類和記憶上。(屬性選擇相當於決定吃什麼,分類和記憶相當於吃不吃) 我按照各個分類算法的露臉頻率給分列表:
以上方法大部分是分類,分類裏有個子方向是聚類。(svm就有這功能)。聚類好多算法,但都有一個總體思想:所有被聚為一類的都有共同特點,都應該是某種角度相似的。所以,用什麼不重要,你不同的角度想,會有不同的聚類算法。本質上就是找規律嘛! 這麼多年,我總結出一點:技術都是被那群發論文的搞神秘了。其實,超簡單的。比如神經網絡,你買本SimonHaykin的《神經網絡與機器學習》看試試,你真會發現,這玩意難啊,咱玩不了。然後你買本史忠植的《神經網絡》翻翻,你會發現,啊,tnnd,神經網絡這麼簡單啊。的確,每個算法必須要有強勁的數學作為支撐,但對於使用者(非博士以上科研人士),你用lisp的時候有腦殘到要去搞懂lisp的數學原理嗎? 分類與記憶,現在的所有算法都是一種逼近,結構上最像的自然是人工神經網絡(ANN),但不一定是解決目前狠多工程問題的最優方法。有關係嗎?有趣的是,ANN可以同時解決分類和記憶(別說還有概念能力啊,還有情感能力啊,還有模煳是非能力啊。。。人的能力是很多,但本質就是個分類和記憶) 所以,我認為,喜歡這個方向,應該不要忘記神經網絡(當然,如果是細分領域,比如語言處理,音頻,視頻識別,這不一定是最優的,但是是萬能的和最有可能逼近通用分類和記憶最終解的(雖然現在的ANN在速度和好多問題的質量上有點惡心))。 最後,借用Kurzweil的一句話:當機器智能超過人的那天,人類智能將永遠不可能超過機器智能。 PS:我是做反垃圾算法的。 好書推薦: 《模式識別》Sergios Yheodoridis; 《神經網絡》史忠植; 《知識工程語言學》魯川; 《數據挖掘-概念與技術》Kamber; 《圖論》GTM係列之一,Reinhard Diestel 《高級人工智能》史忠植; 《知識發現》史忠植; 《智能科學》史忠植; 《人工智能複雜問題求解的結構和策略》Luger; 《人工智能》尼爾森; 《人工智能:一種現代的方法》拉塞爾; 《靈魂機器的時代:當計算機超過人類智能》Kurzwell 《奇點臨近》Kurzwell; 《神經網絡與機器學習》海金; 人工神經發展簡史 1.啟蒙時期 1890年,WilliamJames發表了《心理學原理》。 1943年,生理學家W.S.McCuloch和數學家W.A.PiHs提出M-P模型。 1949年,心理學家Hebb出版《行為構成》,建立了Hebb算法(連接權訓練算法)主要有四點貢獻:①信息存儲在連接權中;② 1958年,計算機科學家FrankRosenblatt提出了具有3層網絡特性的神經結構網絡。 1960年,電機工程師BernardWidrow和Mareian Hoff提出”Adaline”模型,實現了人工神經硬件。Widrow-Hoff算法也稱為δ算法,最小均方(LMS)算法,梯度下降法。
2.低潮時期 1969年,人工智能創始人M.Minsky和S.Papert發表《感知器》,給人工智能潑了一盆冷水。 1969年,S.Grossberg教授和她的夫人G.A.Carpenter提出來著名的自適應共振理論(Adaptive ResonanceTheory)模型,其中的基本觀點是:若在全部神經節點中有一個神經節點特別興奮,其周圍的所有節點將受到抑製。Grossberg還提出短期記憶和長期記憶的機理,節點的激活值和連接權都會隨時間,前者代表短期記憶,衰減得快,後者代表長期記憶,衰減得慢。其後他們發表了ART1,ART2,ART3三個版本,ART1網絡隻能處理二值的輸入,ART2能處理模擬量輸入。 1972年,芬蘭的T.Kohonen教授提出了自組織映射(SOM)理論,以及聯想存儲器(Associated Memory)。美國的神經生理學家和心理學家J.Anderson提出了交互存儲器(Interactive Memory)。 1980,日本東京的福島邦彥發表了“新認知機”(Neocognitron)。
3.複興時期 1982年,美國加州理工學院的優秀物理學家John.J.Hopfield總結和吸納了前人的經驗,塑造出一種新穎的強有力的模型,成為Hopfield網絡,此網絡有個優點,與電子電路有明顯的對應關係,易於用集成電路實現。 G.E.Hinton和T.J.Sejnowski借助統計物理學的概念和方法提出了一種隨機神經網絡模型—玻爾茲曼(Blotzmann)機。 1986年,貝爾實驗室宣布製成神經網絡芯片不久,美國的David.E.Rnmelhart和James L.McCelland及其領導的研究小組發表了《並行分布式處理》(ParallelDistributed Processing)一書的前兩卷,接著1988年發表帶有軟件的第三卷,書中涉及到了三個主要特征:結構、神經元的傳遞函數(也稱傳輸函數、轉移函數、激勵函數)和它的學習訓練方法。這部書發展了多層感知器的反向傳播訓練算法,把學習的結果反饋到中間層次的隱節點,改變其權值,以達到預期的學習目的。
4.新時期 1987年6月,首屆國際神經網絡學術會議在加州聖地亞哥召開,成立了國際神經網絡學會(International Neural Network Sociaty,INNS)。 不久,美國波士頓大學的Stephen Grossberg教授,芬蘭赫爾辛基技術大學的Gteuvo Kohonen教授和日本東京大學的甘利俊一(Shunichi Amuri)教授—主持創辦了世界第一份神經網絡雜誌《Neural Network》。 以上就是java人工智能的全部內容了,感謝大家的閱讀! |
最後更新:2017-04-28 23:21:43