首页 > 编程知识 正文

cnn网络,CNN模型

时间:2023-05-03 16:39:02 阅读:14868 作者:495

卷积网络的基本结构

数据输入层/输入层3三种常见的图像数据处理方式:一般的CNN只去除平均值

卷积计算层/CONV layer的基本概念:

计算深度:和神经元(过滤器)数量相等的stribezero-padding卷积宽度、长度和深度:

激励层(ReLU ) Sigmoid

Tanh (双曲正切) )。

勒留

Leaky ReLU

欧盟

马克斯

池化层/轮询层夹在连续的卷积层之间

压缩数据和参数的量,减小拟合

池化后的宽度高度计算如下。 (eg:1个2*2,S=2,池化后正好是原始图像的一半

典型的CNN结构

LeNet

AlexNet分为两组。 8层结构(5卷积层3全连接)比LeNet深,减少了每层的神经元数

ZF Net可以理解为对AlexNet进行了微调。

VGGNet VGG-16有16个卷积层或全连接层,包括5组卷积层和3个全连接层。 即16=2 2 3 3 3 3。

1、输入224x224x3的图像,制作64个3x3卷积核的两次卷积ReLU,卷积后的大小为224x224x64

2、进行max pooling (最大化池化)时,池化单元的大小为2x2 ),效果为图像大小减半),池化后的大小为112x112x64

如果用3,128个3x3的卷积核制作2次卷积ReLU,则大小为112x112x128

进行4、2x2的max轮询池化,大小为56x56x128

如果用5,256个3x3卷积核制作3次卷积ReLU,则大小为56x56x256

进行6、2x2的max轮询池化,大小为28x28x256

如果用7,512个3x3卷积核制作3次卷积ReLU,则大小为28x28x512

进行8、2x2的max轮询池化,大小为14x14x512

如果用9,512个3x3卷积核制作3次卷积ReLU,则大小为14x14x512

进行10、2x2的max轮询池化,大小为7x7x512

11、2层1x1x4096、1层1x1x1000和全连接ReLU (共3层) ) )。

12、通过softmax输出1000个预测结果

注意内存的计算

谷歌网络移除了所有连接层

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。