卷积网络的基本结构
数据输入层/输入层3三种常见的图像数据处理方式:一般的CNN只去除平均值
卷积计算层/CONV layer的基本概念:
计算深度:和神经元(过滤器)数量相等的stribezero-padding卷积宽度、长度和深度:
激励层(ReLU ) Sigmoid
Tanh (双曲正切) )。
勒留
Leaky ReLU
欧盟
马克斯
池化层/轮询层夹在连续的卷积层之间
压缩数据和参数的量,减小拟合
池化后的宽度高度计算如下。 (eg:1个2*2,S=2,池化后正好是原始图像的一半
典型的CNN结构
LeNet
AlexNet分为两组。 8层结构(5卷积层3全连接)比LeNet深,减少了每层的神经元数
ZF Net可以理解为对AlexNet进行了微调。
VGGNet VGG-16有16个卷积层或全连接层,包括5组卷积层和3个全连接层。 即16=2 2 3 3 3 3。
1、输入224x224x3的图像,制作64个3x3卷积核的两次卷积ReLU,卷积后的大小为224x224x64
2、进行max pooling (最大化池化)时,池化单元的大小为2x2 ),效果为图像大小减半),池化后的大小为112x112x64
如果用3,128个3x3的卷积核制作2次卷积ReLU,则大小为112x112x128
进行4、2x2的max轮询池化,大小为56x56x128
如果用5,256个3x3卷积核制作3次卷积ReLU,则大小为56x56x256
进行6、2x2的max轮询池化,大小为28x28x256
如果用7,512个3x3卷积核制作3次卷积ReLU,则大小为28x28x512
进行8、2x2的max轮询池化,大小为14x14x512
如果用9,512个3x3卷积核制作3次卷积ReLU,则大小为14x14x512
进行10、2x2的max轮询池化,大小为7x7x512
11、2层1x1x4096、1层1x1x1000和全连接ReLU (共3层) ) )。
12、通过softmax输出1000个预测结果
注意内存的计算
谷歌网络移除了所有连接层