734
機器人
人工智能AI芯片你了解多少?
隨著人工智能市場的升溫,如何構建這些係統的困惑也隨之升溫。
每個人的參考點不同,但有一點是無疑的,人工智能將是隨之而來的一件大事,它將在未來扮演一個重要角色。
這就說明了為什麼這個行業在過去18個月中如此狂熱。一些大公司為了AI的研發支付數十億美元甚至更多收購初創公司,全球各國政府向大學和研究院投入數十億美元開發AI芯片及係統。一場全球性的競賽正在進行中,其目標是創建最佳的體係結構和係統,處理人工智能需要計算的海量數據。
關於這個行業的市場預測也在升溫。根據Tractica研究所的報告,到2025年AI產業的年銷售額可達368億美元。據稱,到目前為止,已經確定了27個不同的工業部門和191個人工智能應用案例。
圖1、AI營收增長預測(來源:Tractica)
但在深入研究後很快發現,並沒有一個最好的單一方法來處理人工智能。事實上,甚至沒有一個一致的定義,什麼是AI或AI需要分析的數據類型?
“有三個問題需要解決,”Onespin Solution的總裁兼CEO Raik Brinkmann說。“首先,需要處理大量的數據;第二是要建立並行處理互連;第三是電源問題,耗電與移動的數據量有直接關係。因此,需要從馮諾依曼架構轉變到數據流體係結構,但這個數據流結構究竟是什麼樣子呢?”
目前為止很少有清晰的答案。這就是為什麼在這個市場上的首選方案包括了各種現成的CPU、GPU、FPGA和DSP組合。而新的設計正在開發中,例如Intel、穀歌、NVIDIA、高通和IBM,還不清楚哪一家的方法會成功。現在看來至少需要一個CPU控製這些係統,但由於數據流是並行的,還需要各種類型的協處理器協同工作。
AI的大部分處理涉及矩陣乘法和加法。大量的GPU並行處理提供了一個廉價的方法,但懲罰是高功耗。內置DSP模塊和本地存儲器的FPGA更節能,但價格更昂貴。這也是需要軟件和硬件共同開發的部分,但是大部分軟件遠遠落後於硬件。
“在研究和教育機構有大量的活動,”Mentor Graghics的董事長兼CEO Wally Rhines說。“有新處理器開發競賽,也有用於深度學習的標準GPU,同時還有一大堆人在和CPU一起工作。目標是使神經網絡的行為更像人腦,這將刺激新一波的設計浪潮。”
當涉及到AI時,視覺處理備受關注,很大程度上是因為當特斯拉的自主駕駛汽車麵世時,特斯拉在15年前就開始研發這種自主駕駛能力了。這為該項技術、圖像處理傳感器、雷達和激光雷達收集數據所需的芯片,以及總體係統架構開辟了一個巨大的市場。許多經濟學家和谘詢公司都在關注這個市場之外AI將如何影響整體生產力。最近來自Accenture的報告預計,人工智能將使一些國家的國內生產總值增加一倍以上(見下圖2)。同時,將會造成大批失業,整體營收的提高之大無法忽視。
圖2、AI的預期影響
Synopsys董事長兼首席執行官Aart de Geus指出, 電子學分三波:計算和網絡、移動、數字智能。在數字智能中,焦點從技術本身轉移到它能為人們做什麼?
“你會看到神經網絡IP處理器的麵部識別技術和具有視覺處理的汽車,”Aart de Geus說。“這個技術的另一麵是機器學習,目前正在開發的重點是更多的功能和更快的處理速度。這將推動7nm、5nm和更進一步技術節點的開發。”
01
目前的方法
自主駕駛中的視覺處理是當前人工智能研究的重要內容,但這項技術在無人飛行器和機器人方麵也發揮著越來越大的作用。
“人工智能在成像中的應用,計算複雜度很高,”Achronix總裁兼CEO Robert Blake說。“無線技術,用數學很好理解。但圖像處理,就有點像野蠻的西部。這是一個非常不同的工作量。這個市場需要5到10年的時間才能實現,當然,可編程邏輯也有很大作用,因為需要以高度並行的方式實現可變精度運算。”
FPGAs應用於矩陣乘法是非常好的。最重要的是,可編程為設計增加了必要的靈活性和可驗證性,因為有時候還不清楚所謂的智能會不會存在於設計中。用於決策的一些數據在本地處理,還有一些在數據中心處理。但根據實現的方式這個比例是可以變化的。
對人工智能芯片和軟件設計來說,還有一個大的變化。雖然人工智能大的藍圖沒有改變太多,但大部分被貼上人工智能標簽的東西比真正的人工智能更接近機器學習,這導致對如何構建這些係統的理解已經有了重大變化。
“比如汽車,人們現在做的是把現有的東西放在一起,”Arteris營銷副總裁Kurt Shuler說。“盡管一個真正有效的嵌入式係統能夠學習,但是它需要一個高效的硬件係統。這方麵有幾個正在使用的不同方法。如果你觀看視覺處理,你所做的就是試圖弄清楚一個設備看到的是什麼,以及你是如何作出推斷來的。這可能包括來自視覺傳感器、激光雷達和雷達的數據,然後應用專門的算法計算。這裏所發生的很多事情都是試圖用深層和卷積神經網絡來模擬大腦中正在發生的事情。”
這與真正的人工智能不同之處在於,目前最先進的技術是能夠檢測到並能夠回避對象,而真正的人工智能則增加了推理能力。比如怎樣穿過一大群正在過馬路的人群,一個孩子追逐一個球會不會跑到街上?在前者中,判斷是基於大量數據處理和預先編程行為的各種傳感器的輸入。在後者中,機器將能夠做出價值判斷,如轉彎避免孩子許多可能的後果,這才是最好的選擇。
“傳感器融合是上世紀90年代來自飛機的一個概念,”Shuler說。“我們把它變成一個普通的機器可以壓縮的數據格式,如果你在軍隊,擔心有人朝你開槍;你在汽車上,有人推著嬰兒車在你麵前經過。所有這些係統都需要非常高的帶寬,並且這些係統都必須有安全性。最重要的是,你必須保護數據,因為安全問題正變得越來越大。你需要的是計算效率和編程效率。”
這是當今許多設計中所缺少的,因為許多開發者使用的都是現有的方案。
“如果可以優化網絡、優化問題、比特數最小化,並利用卷積神經網絡定製的硬件,你可以在功率降低方麵實現一個2到3倍的增長量,”Cadence高級結構設計師Samer Hijazi說。“效率源於軟件算法和硬件IP。”
但穀歌正試圖改變這個公式。公司開發了張量處理單元(TPUs),這是專門為機器學習開發的ASIC。為了加快智能發展,2015年穀歌已將tensorflow軟件源代碼開放。
圖3、穀歌的TPU板(來源:穀歌)
其他人也有自己的平台,但別指望會成為最終產品。這隻是一種進化,並沒有人確切的知道人工智能在未來十年將如何演變,部分原因是這種技術仍有使用的案例。在一個領域中有效的東西,如視覺處理,不一定在另一個應用中有效,例如確定一個氣味是危險的還是良性的,或者兩者都有。
“我們像在黑暗中摸索,”Netspeed市場營銷和業務發展副總裁Anush Mohandass說。“我們知道如何進行機器學習和人工智能,但在這一點上,它們實際上如何工作和如何收斂是未知的。目前的方法是擁有大量的計算能力和不同類型的計算引擎CPU、用於神經網絡應用程序的DSP,並且需要確保它工作。但這隻是人工智能的第一代,其重點是放在計算能力和異質性上。”
然而,隨著問題的解決變得更具針對性,這一點預計會有所改變。正如早期的物聯網設備版本一樣,沒有人清楚市場會如何演義,所以係統公司不惜血本投入,利用現有的芯片技術將產品推向市場。舉智能手表的例子,結果是電池在充電後隻能維持幾個小時。隨著為這些特定應用開發的新芯片,功耗和性能與更具針對性的功能相結合而得到平衡,更智能的分配處理本地設備和雲之間的解析,並更好地理解瓶頸在設計中的位置。
“麵臨的挑戰是要找到你不知道的瓶頸和約束,”ARM建模技術總監Bill Neifert說。“但是工作負載不同,處理器可能與軟件交互不同,軟件本質上是一個並行應用程序。因此,如果您正在查看諸如財務建模或天氣圖這樣的工作,那麼每一個強調底層係統的設計方法都是不同的。你隻有鑽進去才能明白。”
他指出,軟件方麵正在解決的問題需要從更高層次上來看待。因為它使他們更容易控製和修複,這像拚圖是一個重點的地方。隨著人工智能進入更多的市場,所有這些技術都需要發展,以達到與一般技術行業相同的效率,特別是半導體行業過去已經證明了這一點。
“但異質性的負麵影響是,整個分而治之的方法土崩瓦解,”Mohandass說。“因此,解決方案通常涉及過度配置或配置不足。”
02
新的方法
人工智能隨著越來越多的案例被用於超越自主車輛,應用有逐步擴大趨勢。
這就是為什麼英特爾去年8月買下Nervana的原因。Nervana開發的2.5D深度學習芯片,利用一個高性能的處理器核心,移動數據到高帶寬的內存。目標是比基於GPU的解決方案減少100倍的時間訓練深度學習模型。
圖4、Nervana AI芯片(來源:Nervana)
“這些都很像高性能計算芯片,這基本上是2.5D芯片采用了一個矽中介層,”eSilicon營銷副總裁Mike Gianfagna說。“你需要大量的吞吐量和超高帶寬的內存。在這方麵我們已經看到不少公司,雖然還不算很多,盡管有點兒早。當你談到實現機器學習和自適應算法時,以及如何將這些傳感器和信息流集成起來,這是極其複雜的。如果您看一個汽車,您將從多個不同來源傳輸數據,並為避免衝突添加自適應算法 。”
解決這些問題麵臨兩個挑戰:一是可靠性和認證,另一個是安全性。
隨著人工智能發展,可靠性需要在係統層麵考慮,包括硬件和軟件。ARM在十二月份收購Allinea給我們提供了一個啟示。另一個是來自斯坦福大學,那裏的研究人員正試圖從軟件量化修剪計算的影響。他們發現大規模切割或修剪對最終產品沒有顯著影響。加州大學伯克利分校一直在開發一種類似的計算方法,基於小於100%的計算精度。
“粗粒式修剪與細紋式修剪相比不影響精度,” 斯坦福大學一位正在研究節能深度學習的博士生Song Han說。在斯坦福開發的一個稀疏矩陣可以減少10倍的計算量和小於8倍的內存占用,比DRAM少用120倍的能源。這種在斯坦福稱之為高效的語音識別引擎,壓縮導致了加速推理。(這些研究成果發表在Cadence最近的嵌入式神經網絡峰會上。)
量子計算為AI係統增加了另一種選擇。Leti的CEO Marie Semeria說,量子計算是她的團隊的未來方向之一,特別是在人工智能應用領域。IBM研究科學和方案副總裁Dario Gil解釋說,使用經典計算,隻有四分之一的幾率猜到哪四張牌是紅色的,如果其他三張是藍色的話。使用量子計算機和量子糾纏疊加,通過顛倒糾纏,係統將每次都提供正確的答案。
圖5、量子處理器(來源:IBM)
03
結論
人工智能不是單一的事情,因此沒有一個單一的係統在任何地方都能最佳工作。但是對AI係統有一些一般要求,如下圖所示。
圖6、人工智能基礎(來源:Onespin)
AI已經在許多市場應用,所有這些都需要廣泛的改進、昂貴的工具和生態係統支持。多年來,依靠縮放器件來改進功耗、性能和成本,整個市場都在反思它們將如何走向新市場。這對結構設計師來說是一個巨大的勝利,它不僅為設計團隊增加了巨大的創意選擇,而且從工具和IP供應商到封裝和工藝開發,也會沿著這條路繼續大規模的發展。就像重啟高科技產業的按鈕,未來幾年將對整個生態係統的發展都是有益的。
本文譯自SEMICONDUCTOR ENGINEERING 作者Ed Sperling,轉載請聯係本公眾號獲得授權。
翻譯:韓繼國 智慧產品圈顧問
-----------------------------------
-----------------------------------
最後更新:2017-10-08 07:21:29