Top100论文导读:深入理解卷积神经网络CNN(Part Ⅱ)
Adrian Colyermorning paperAccel Partners
https://www.linkedin.com/in/adriancolyer/
Twitterhttps://twitter.com/adriancolyer
“ top100”
Return of the devil in the details: delving deep into convolutional nets,Chatfield,2014.
Spatial pyramid pooling in deep convolutional networks for visual recognition,He,2014.
Very deep convolutional networks for largescale image recognition,Simonyan
&Zisserman,2014.
Going deeper with convolutions,Szegedy,2015.
篇论文是,CNN已经在打败了提取特征不是基于相同条件下的ChatfieldIFV层CNN层PASCAL VOC,CNN分别为KrizhevksyCNN-FFast、长1感知野的CNN-MMedium以及OverFeat“”CNN-SSlow
- 增强将IFV和CNN的性能提高了约3%。翻转只能起到略微的作用,但翻转结合裁剪效果却很好。IFV和CNN都受到颜色信息的添加或减少的影响,将图像转换为灰度后重新训练CNN,会导致3%的性能下降。
- 基于CNN的方法仍然优于浅层编码等方法10%的性能。
- CNNM和CNNS均优于CNNFast 23%的性能;CNNM比CNNS快25%。
- 再次训练CNN,最后一层较低的维数导致了边缘性能的提升。
-
微调导致结果有显着差异,提高约2.7%。
论文CNN经验结果让显着层的性能。结果表明,ILSVRC性能另外层SVM的的已好
,CNN的架构一般为,以及Nsoftmax,这种架构造成其但只是由于,导致效果
SPP,新层池化思想早于CNN。
SPP表示,
输入。
将SPP模型中AlexNetKrizhevskyOverFeat后," 因为层次化
SPP之前RCNN需要找到2000,并利用卷积网络提取每个窗口的特征,这种方法而又但SPP上,即对池化
之前了解了ConvNet长的结果论文SimonyanZisserman让的保持不变
:224 x 224 彩色并且值其归一化;3×3感知野1×1大小的卷积,长1;最大池化层后池化;输入到及softmax;ReLU函数
的架构(注意使用了一个局部响应归一化-LRN)

局部响应归一化反而架构ConvNet
19模型达到是的表中网络B由55×5卷积层的层网络结果表明一3×3的卷积层代替5×5卷积层后准确率提升了7%证实层络层网络
论文主要介绍“Inception”网络架构的实例“GoogLeNet”网络2014 ISLVRCImageNet最好的结果GoogLeNet网络22架构。
GoogLeNetKrizhevskyConvNet12,精度显着提升功率“Inception”
主要是基于针对是应用于在中其也是的
你可以通过增加层数(深度)或者是每层的宽度得“”,将导致训练以及
,Arora“”、值来使用每一层
架构目前硬件设备
利用的在上使用Inception进行
Inception架构现成涵盖
假设使用架构这架构对该架构进行即可架构
1×1的单元3×35×5的域池化好加入池化
涵盖架构计算复杂度非常高、效率低
3×35×5的1×1的降维。下图Inception架构
Inception模块2池化
GoogLeNet将,22化27,模块数量100传递将由于因此向)。将Inception4a4d会根据权重叠加,测试时会
Convolutional neural networks, Part 2Adrian Colyer
最后更新:2017-05-01 08:01:17