Top100論文導讀:深入理解卷積神經網絡CNN(Part Ⅱ)
Adrian Colyermorning paperAccel Partners
https://www.linkedin.com/in/adriancolyer/
Twitterhttps://twitter.com/adriancolyer
“ top100”
Return of the devil in the details: delving deep into convolutional nets,Chatfield,2014.
Spatial pyramid pooling in deep convolutional networks for visual recognition,He,2014.
Very deep convolutional networks for largescale image recognition,Simonyan
&Zisserman,2014.
Going deeper with convolutions,Szegedy,2015.
篇論文是,CNN已經在打敗了提取特征不是基於相同條件下的ChatfieldIFV層CNN層PASCAL VOC,CNN分別為KrizhevksyCNN-FFast、長1感知野的CNN-MMedium以及OverFeat“”CNN-SSlow
- 增強將IFV和CNN的性能提高了約3%。翻轉隻能起到略微的作用,但翻轉結合裁剪效果卻很好。IFV和CNN都受到顏色信息的添加或減少的影響,將圖像轉換為灰度後重新訓練CNN,會導致3%的性能下降。
- 基於CNN的方法仍然優於淺層編碼等方法10%的性能。
- CNNM和CNNS均優於CNNFast 23%的性能;CNNM比CNNS快25%。
- 再次訓練CNN,最後一層較低的維數導致了邊緣性能的提升。
-
微調導致結果有顯著差異,提高約2.7%。
論文CNN經驗結果讓顯著層的性能。結果表明,ILSVRC性能另外層SVM的的已好
,CNN的架構一般為,以及Nsoftmax,這種架構造成其但隻是由於,導致效果
SPP,新層池化思想早於CNN。
SPP表示,
輸入。
將SPP模型中AlexNetKrizhevskyOverFeat後," 因為層次化
SPP之前RCNN需要找到2000,並利用卷積網絡提取每個窗口的特征,這種方法而又但SPP上,即對池化
之前了解了ConvNet長的結果論文SimonyanZisserman讓的保持不變
:224 x 224 彩色並且值其歸一化;3×3感知野1×1大小的卷積,長1;最大池化層後池化;輸入到及softmax;ReLU函數
的架構(注意使用了一個局部響應歸一化-LRN)

局部響應歸一化反而架構ConvNet
19模型達到是的表中網絡B由55×5卷積層的層網絡結果表明一3×3的卷積層代替5×5卷積層後準確率提升了7%證實層絡層網絡
論文主要介紹“Inception”網絡架構的實例“GoogLeNet”網絡2014 ISLVRCImageNet最好的結果GoogLeNet網絡22架構。
GoogLeNetKrizhevskyConvNet12,精度顯著提升功率“Inception”
主要是基於針對是應用於在中其也是的
你可以通過增加層數(深度)或者是每層的寬度得“”,將導致訓練以及
,Arora“”、值來使用每一層
架構目前硬件設備
利用的在上使用Inception進行
Inception架構現成涵蓋
假設使用架構這架構對該架構進行即可架構
1×1的單元3×35×5的域池化好加入池化
涵蓋架構計算複雜度非常高、效率低
3×35×5的1×1的降維。下圖Inception架構
Inception模塊2池化
GoogLeNet將,22化27,模塊數量100傳遞將由於因此向)。將Inception4a4d會根據權重疊加,測試時會
Convolutional neural networks, Part 2Adrian Colyer
最後更新:2017-05-01 08:01:17