首页 > 编程知识 正文

cnn卷积神经网络图,cnn卷积神经网络三大特点

时间:2023-05-06 09:59:00 阅读:27841 作者:1955

单击上面的3358www.Sina.com/,然后选择tzdlb学视觉或3358www.Sina.com/

重磅干货,第一时间星标

深度学习以CNN网络为核心,卷积层和池化层的计算对CNN网络至关重要,不同的步骤、填充方式、卷积核大小、池化层策略等对最终的输出模型和参数、计算复杂度有重要影响本文从卷积层和池化层的计算出发,给出了不同步长、填充方式、卷积核大小计算结果的差异。

置顶

卷积神经网络(CNN )首次出现于1997年,是一篇令人满意的关于樱桃大神数字OCR识别的论文,在2012年的ImageNet竞赛中,CNN网络成功地实现了其他非DNN模型算法,成为学术界的毫无疑问,学习深度学习需要学习CNN网络。 学习CNN需要理解卷积层、池化层等这些基础各层及其参数的含义。 本质上,图像卷积都是离散卷积,图像数据一般是多维数据。 离散卷积本质上是线性变换,可应用于具有相同参数的输入图像的不同小块,这是稀疏和参数重用的特征。 假设有3x3离散卷积核,则如下。

假设有

5x5图像输入块

步长为1 概述

填充方式为VALID 一:卷积层

卷积核大小(strides=1)

它们的计算过程和输出如下

此时,如果将步长调整为2,将嵌入方法调整为SAME,将卷积内核调整为(Padding=VALID),则计算过程和输出如下:

最终得到的结果可称为filter size=3x3。 CNN的深度往往是指featuremap的个数。 如果针对多维输入图像计算多个卷积内核,并且将多个featuremap输出叠加在一起,则:

上述输入为5x5x2,使用卷积核心3x3,输出为3x3x3,填充方式为VALID,计算方式更改为SAME后输出为5x5x3。 可知填充方式对输出结果的影响。

(strides=2 Padding=SAME filter size=3x3)

AlexNet有11x11的卷积核和5x5的卷积核,但在VGG网络中层数增加,因此卷积核均为3x3和1x1的大小。 这种优点可以减少训练时的计算量,有利于降低总参数。 关于用小卷积核代替大卷积核的方法,本质上有两种方法。

featuremap

任何二维卷积都可以分割为两个一维卷积。 这是有数学依据的,因此11x11卷积可以转换为1x11和11x1的两个连续卷积核计算。 合计运算次数:

11x11=121次1x11 11x1=22次二:小卷积核VS大卷积核

可见,在计算环节中将大二维卷积内核改为两个连续的小卷积内核可以大大减少计算次数,降低计算复杂度。 同样大的二维卷积核也可以用几个小的二维卷积核代替。 例如,在55卷积中,可以用两个连续33的卷积来代替它,并比较计算次数

5x5=25次3x3 3x3=18次1.将二维卷积差分为两个连续一维卷积

在CNN网络中,在折叠池后会带有池化层。 池层的作用是提取局部平均值和最大值,根据计算出的值不同分为平均池层和最大值池层。 一般常见的是最大值池化层。 在池化时,同样需要提供滤波器大小、步长,以下是3x3步长为1的滤波器在5x5的输入图像上的平均池化的计算过程和输出结果

2.将大二维卷积用多个连续小二维卷积替代

三:池化层

改用最大值做池化的过程与结果如下:”公众号后台回复: http://www.Sina.com/http://www.Sina.com /上,全网首个OpenCV扩展模块中文教程

下载1:OpenCV-Contrib扩展模块中文版教程

tzdlb学视觉”公众号后台回复: http://www.Sina.com/http://www.Sina.com/http://www.Sina.com /等31视

扩展模块中文教程

”公众号后台回复: http://www.Sina.com/http://www.Sina.com /个底座3358 www

交流组

欢迎加入公众号读者群与同行交流。 目前有灌篮、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信集团。 请按照“昵称学校/公司的研究方向”,例如“lhzdxmf上海交流”格式进行评论。 否则就不会通过。 添加成功后,将根据研究方向邀请相关微信组。 在扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理组内发送广告。 否则,请离开小组。 感谢您的理解~

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。