閱讀881 返回首頁    go 阿裏雲 go 技術社區[雲棲]


一個java工程師眼裏的人工智能


1982年,美國加州理工學院的優秀物理學家John.J.Hopfield總結和吸納了前人的經驗,塑造出一種新穎的強有力的模型,成為Hopfield網絡,此網絡有個優點,與電子電路有明顯的對應關係,易於用集成電路實現。

今天和大家一起分享一篇由一位java工程師所認識的人工智能。你覺得未來人工智能能替代多少勞動力呢?

java人工智能.JPG

人工智能的總體介紹

  • 如果你看各種綜述人工智能的,都會把子領域這麼分類:機器人、語言識別、圖像識別、自然語言處理、專家係統等。。。。。

  • 人工智能,人工智能,自然是模擬人的智能。人有啥智能?

  • 輸入和特征提取(五感,例如眼一看到東西,就會在視網膜自動將圖像各種特性提取出來,不同的特性送到大腦的不同區域。例如顏色、輪廓、亮度)

  • 分類(一個東西,隻要形狀變得不誇張,我們都認識,這就是分類的功能,當然,在人工智能裏叫classify和clustering)

  • 輸出(就是個控製係統,給它發什麼信號,他做什麼事情。當然,這個事情可能會涉及到比較多的部件,會很複雜,但歸結起來,就是件事情)

  • 記憶(這個是係統最難攻克的地方,我們現在能做的所有文明的事情都是基於記憶的(你剛出來的時候隻會找媽媽的奶喝)),而記憶記啥呢?模式。

    • 模式:一個鼠標,怎麼變我們也認識,這是物體的模式。一個人的聲音,我們也聽出來,這是聲音的模式。所以,模式=分類結果

  • 好了,這就是人工智能。輸入和特征提取一般域分類一起,形成了《機器學習》《模式識別》《數據挖掘》這幾大部分重疊方向。其實用到的都是同樣的東西:bayes、svm、ANN。。。都是實現分類(概稱)問題的不同算法。

  • 至於輸出,除了機器人,沒人會在意。現在還不是研究那個的時候。(前端沒有成熟,輸出隻是普通生產線,屬於雞肋部分)

  • 關鍵的是記憶,以上說的《機器學習》等方向,都會涉及到如果存儲學習結果,但都不成係統。記憶這方麵的進展是最慢的(如果實現了,直接可以宣告人工智能的革命來了)

  • 如果你想學習java可以來這個群,首先是二二零,中間是一四二,最後是九零六,裏麵有大量的學習資料可以下載。

人工智能方向的原因

       真心推薦看一下《奇點臨近》,裏麵的加速回歸理論。主旨是:技術的發展和普及速度是指數級加速的。不信你自己想想,從農業到蒸汽機用了多久?從蒸汽機到石油用了多久?IT行業是啥時候出現的?PC是什麼時候出現的?windows是哪年出現的?(它火起來的時候我已經從老媽肚子裏出來了)互聯網出現了幾年?諾基亞倒下花了多久?智能機出來幾年?蘋果在中國如日中天之前是啥樣子的?(也就各位數年度)

那麼我們不禁要問,一個技術的範式迭代從出現到普及,如果現在和未來是指數速度加速的,那麼下一個大規模改變我們生活的技術會是什麼?我指範式迭代(顛覆性的改變)。它會花多久讓我們接收這個技術?

        讀研的過程中,我發現一件事,導師不是圖像就是數據挖掘,竟然70%是人工智能相關。像複旦,幾乎清一色的數據挖掘。實驗室固然不能體現社會,但一個技術必然是先在實驗室出現的(很多年不是在中國的實驗室,當然這次也不例外)。不但是中國,國外的實驗室,人工智能成為極火的方向。當然,曆史上出現過人工智能的泡沫時代,lisp出現的那幾年和80年代,人工智能都曾被認為是革命,徹底的革命。但很快,熱情就下去了。因為不成熟,不成熟的原因,永遠不是技術無法達到(當然,確實沒那麼成熟的技術),是因為市場不到時候接收。為啥這麼說?iphone都沒辦法被接受,市場會接受更酷的產品嗎?

我估計當中國能接受vertu(雖然vertu的主要市場現在也在中國,但離“接受”這個詞差遠了),家庭裏xbox、psp比較普及的時候,蘋果成為街機的時候,就差不多該是新迭代出現的時候了。而,我們可以感覺到,這一天很不遠了。

所以,下一次範式迭代,應該是人工智能(6大子方向齊頭並進,各有千秋)

如果,Kurzweil是對的,一個很酷的人工智能產品的出現,會在幾天內在全球普及,公司會迅速登頂。穀歌看到了,所以有了奇點大學;微軟看到了(各位去微軟的網站上看看都招啥人,90%此方向)。

而,人工智能切入市場的角度,第一可能是遊戲(中國馬上會流行畫麵控的xbox類平台單機遊戲),第二可能是獨立應用產品(比如照片自動分類,音樂自動分類,桌麵人工智能)。

人工智能核心技術

我覺得這個是我寫這片文章的目的。隨便一本書都會縱覽一下整個領域,但是我看了很多書,幾乎都是隻管自己領域去了。上麵說了,核心包括:

  • 輸入和特征提取:特征(屬性)選擇

  • 分類

  • 記憶

可以得出一個結論,人工智能處理的東西,一定是有屬性(特征)的。(廢話,要不拿什麼分類)

所以,核心中的核心不在屬性選擇上(雖然很重要),而在分類和記憶上。(屬性選擇相當於決定吃什麼,分類和記憶相當於吃不吃)

我按照各個分類算法的露臉頻率給分列表:

  1. Byaes:貝葉斯(這個是第一名,沒異議吧?效果很好(大部分情況),算法簡單,要介紹整個算法體係的話估計誰都第一個把它提出來)

  2. 線性分類器:簡單的說,你把所有輸入(有屬性)都用數字表示,然後以屬性為坐標軸想象一個多維空間。每個數據條目都是多維空間的一個點,在這個空間裏,你能在空間上把不同類的點分開,你就贏了。這就是線性分類了。(感知器算法(過時),最小二乘法,均方估計,邏輯識別還有大頭的支持向量機,這裏支持向量機svm是最出名的,我也天天用這個大笑,這還得歸功於台灣一位教授的libsvm庫啊)

  3. 非線性分類器:就是線性分類器解決不了的情況。知名的算法有:ANN(人工神經網絡,更確切的說是BP(反向傳播)),svm(這麼知名的算法,如果有線性解決不了的情況,自然會有人把它拓展到非線性情況)

以上方法大部分是分類,分類裏有個子方向是聚類。(svm就有這功能)。聚類好多算法,但都有一個總體思想:所有被聚為一類的都有共同特點,都應該是某種角度相似的。所以,用什麼不重要,你不同的角度想,會有不同的聚類算法。本質上就是找規律嘛!

這麼多年,我總結出一點:技術都是被那群發論文的搞神秘了。其實,超簡單的。比如神經網絡,你買本SimonHaykin的神經網絡機器學習》看試試,你真會發現,這玩意難啊,咱玩不了。然後你買本史忠植的《神經網絡》翻翻,你會發現,啊,tnnd,神經網絡這麼簡單啊。的確,每個算法必須要有強勁的數學作為支撐,但對於使用者(非博士以上科研人士),你用lisp的時候有腦殘到要去搞懂lisp的數學原理嗎?

分類與記憶,現在的所有算法都是一種逼近,結構上最像的自然是人工神經網絡(ANN),但不一定是解決目前狠多工程問題的最優方法。有關係嗎?有趣的是,ANN可以同時解決分類和記憶(別說還有概念能力啊,還有情感能力啊,還有模煳是非能力啊。。。人的能力是很多,但本質就是個分類和記憶)

所以,我認為,喜歡這個方向,應該不要忘記神經網絡(當然,如果是細分領域,比如語言處理,音頻,視頻識別,這不一定是最優的,但是是萬能的和最有可能逼近通用分類和記憶最終解的(雖然現在的ANN在速度和好多問題的質量上有點惡心))。


最後,借用Kurzweil的一句話:當機器智能超過人的那天,人類智能將永遠不可能超過機器智能。

PS:我是做反垃圾算法的。

好書推薦:

《模式識別》Sergios Yheodoridis;

《神經網絡》史忠植;

《知識工程語言學》魯川;

《數據挖掘-概念與技術》Kamber;

《圖論》GTM係列之一,Reinhard Diestel

《高級人工智能》史忠植;

《知識發現》史忠植;

《智能科學》史忠植;

《人工智能複雜問題求解的結構和策略》Luger;

《人工智能》尼爾森;

《人工智能:一種現代的方法》拉塞爾;

《靈魂機器的時代:當計算機超過人類智能》Kurzwell

《奇點臨近》Kurzwell;

《神經網絡與機器學習》海金;

人工神經發展簡史

1.啟蒙時期

1890年,WilliamJames發表了《心理學原理》。

1943年,生理學家W.S.McCuloch和數學家W.A.PiHs提出M-P模型。

1949年,心理學家Hebb出版《行為構成》,建立了Hebb算法(連接權訓練算法)主要有四點貢獻:①信息存儲在連接權中;②

1958年,計算機科學家FrankRosenblatt提出了具有3層網絡特性的神經結構網絡。

1960年,電機工程師BernardWidrow和Mareian Hoff提出”Adaline”模型,實現了人工神經硬件。Widrow-Hoff算法也稱為δ算法,最小均方(LMS)算法,梯度下降法。

 

2.低潮時期

1969年,人工智能創始人M.Minsky和S.Papert發表《感知器》,給人工智能潑了一盆冷水。

1969年,S.Grossberg教授和她的夫人G.A.Carpenter提出來著名的自適應共振理論(Adaptive ResonanceTheory)模型,其中的基本觀點是:若在全部神經節點中有一個神經節點特別興奮,其周圍的所有節點將受到抑製。Grossberg還提出短期記憶和長期記憶的機理,節點的激活值和連接權都會隨時間,前者代表短期記憶,衰減得快,後者代表長期記憶,衰減得慢。其後他們發表了ART1,ART2,ART3三個版本,ART1網絡隻能處理二值的輸入,ART2能處理模擬量輸入。

1972年,芬蘭的T.Kohonen教授提出了自組織映射(SOM)理論,以及聯想存儲器(Associated Memory)。美國的神經生理學家和心理學家J.Anderson提出了交互存儲器(Interactive Memory)。

1980,日本東京的福島邦彥發表了“新認知機”(Neocognitron)。

 

3.複興時期

1982年,美國加州理工學院的優秀物理學家John.J.Hopfield總結和吸納了前人的經驗,塑造出一種新穎的強有力的模型,成為Hopfield網絡,此網絡有個優點,與電子電路有明顯的對應關係,易於用集成電路實現。

G.E.Hinton和T.J.Sejnowski借助統計物理學的概念和方法提出了一種隨機神經網絡模型—玻爾茲曼(Blotzmann)機。

1986年,貝爾實驗室宣布製成神經網絡芯片不久,美國的David.E.Rnmelhart和James L.McCelland及其領導的研究小組發表了《並行分布式處理》(ParallelDistributed Processing)一書的前兩卷,接著1988年發表帶有軟件的第三卷,書中涉及到了三個主要特征:結構、神經元的傳遞函數(也稱傳輸函數、轉移函數、激勵函數)和它的學習訓練方法。這部書發展了多層感知器的反向傳播訓練算法,把學習的結果反饋到中間層次的隱節點,改變其權值,以達到預期的學習目的。

 

4.新時期

1987年6月,首屆國際神經網絡學術會議在加州聖地亞哥召開,成立了國際神經網絡學會(International Neural Network Sociaty,INNS)。

不久,美國波士頓大學的Stephen Grossberg教授,芬蘭赫爾辛基技術大學的Gteuvo Kohonen教授和日本東京大學的甘利俊一(Shunichi Amuri)教授—主持創辦了世界第一份神經網絡雜誌《Neural Network》。

以上就是java人工智能的全部內容了,感謝大家的閱讀!

最後更新:2017-04-28 23:21:43

  上一篇:go RedAlert簡介
  下一篇:go Java中String類的方法及說明