首页 > 编程知识 正文

神经网络卷积示意过程图,卷积神经网络特征图

时间:2023-05-04 02:29:12 阅读:13523 作者:3441

文章目录卷积层卷积的优点——参数共享和稀疏连接池层——学习参数卷积神经网络示例梯度下降经典神经网络残差网络1x1卷积(networkinnetworkand 1x1 convolution 学习神经网络应用分类定位目标点检测滑动窗口的卷积实现YOLO算法交集和非极大值抑制anchor

参考资料: https://blog.csdn.net/weixin _ 36815313/article/details/105728919

卷积层

卷积的优点——参数共享和稀疏连接参数共享

特征检测(如垂直边缘检测)可以应用于图像的一个区域,也可以应用于图像的其他区域。 也就是说,如果使用33滤波器检测垂直边缘,则该33滤波器可用于图像左上角的区域和相邻区域(左矩阵中标记为蓝色四边形的部分)。 稀疏连接

输出(右矩阵中的被标记为红色的元素30 )仅依赖于这9个特征(左矩阵中的被标记为红色的方块的区域),只有这9个输入特征看起来与输出连接,其他像素对输出没有任何影响。

池化层——不需要学习参数

卷积神经网络实例

坡度下降

经典神经网络LeNet-5、AlexNet、VGG、ResNet、Inception

疑问:请告诉我为什么随着网络的加深,图像的高度和宽度会按照一定的规律缩小,通道数会增加,这样设计?

残差网络细节残差网络: https://砖局域网. zhi Hu.com/p/42706477

随着网络层数的增加,出现了网络退化的现象。 随着网络层数的增加,训练集loss逐渐降低,然后饱和,当xldse进一步增加网络深度时,训练集loss反而增大。 请注意,这不是过度拟合。 因为通过过度拟合训练loss一直在减少。 网络老化后,浅层网络可以获得比深层网络更好的训练效果。 此时,如果把低层的特征传达给上层,效果至少应该不比浅层网络差。 或者,如果某个VGG-100网络在第98层使用了与VGG-16第14层一模一样的特征,则VGG-100的效果应该与VGG-16的效果相同。 因此,可以通过在VGG-100的98层和14层之间添加“直接映射”(Identity Mapping )来获得该效果。 从信息论的角度来说,由于DPI (数据处理不等式)的存在,在前向传输过程中,随着层数的加深,特征映射中包含的图像信息逐层减少,但由于ResNet的直接映射的加入,深层网络比浅层包含更多的图像信息基于使用这种直接映射连接网络不同层的直接思想,残差网络应运而生。

1x1卷积池层压缩高度和宽度,而1x1卷积压缩输入层的通道数

Inception网络Inception网络或Inception层的作用是确定是否需要创建卷积层或池层,而不是手动确定卷积层中的过滤器类型。 合理构建瓶颈层可以大大减小表示层的规模,节约计算,而不会降低网络性能。

迁移学习下载别人已经训练过的网络结构权重作为预训练,转移到感兴趣任务的数据越多,需要冻结的层数越少,可以训练的层数越多。 如果有更大的数据集,请考虑训练中等网络,包括最终网络后面的几个阶段,而不是只训练一个softmax单元。

注:使用别人的预培训权重,即使只有一个小数据集,性能也很可能得到提高。 大多数深度学习框架包括是否训练trainableParameter=0、是否不训练这些权重、是否不训练freeze=1,以及特定的层在这个例子中,只需要训练softmax层的权重并冻结上一层的权重。 神经网络应用分类定位

目标点检测

滑动窗口的折叠实现为什么要将所有连接层转换为辊叠? 有什么好处?

解释:参数共享(滑动区域具有相同参数)、共享计算(相同区域计算相同)原理)不将输入图像划分为四个子集中分别执行前向传播,而是将它们作为一张图像输入卷积网络进行计算,公共区域计算

说明:以绿色方块为例,假设剪切该区域(编号1 )并传递给卷积网络。 第一层的激活值为该区域)编号2 ),最大池化的下一层的激活值为该区域)编号3 ),该区域与后面几层输出的右上角的方形)编号4、5、6 )相对应。 存在无法输出最准确的边界框的缺点

YOLO算法将对象分配给其中的点所在的网格,并且即使对象跨越多个网格,也只将对象分配给九个网格中的一个。 b x b_x bx、b y b_y by、b h b_h bh和b w b_w bw单位是相对于光栅尺寸的比例

并置比

极大值以外的抑制

Anchor Boxes

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。