首页 > 编程知识 正文

反应池的作用,中和池的作用

时间:2023-05-05 22:32:00 阅读:132925 作者:1009

总结池化层的作用,卷积神经网络通常在相邻卷积层之间添加池化层。 池化层可以有效地缩小参数矩阵的大小,减少最终连接层的参数数量。 因此,添加池层可以加快计算速度并防止过拟合。

池化的原理或者是过程:pooling在不同的通道上分别运行,不需要参数控制。 然后根据窗口的大小进行相应的操作。 包括最大轮询、平均轮询等。

1 .池化层的主要作用(1)第一作用,下采样(downsamping ) )。

)2)降维、消除冗馀信息、压缩特征、简化网络复杂性、减少计算量、减少内存消耗等。 说各种各样的说法吧。 总体理解是减少参数的量。

)3)实现非线性)请考虑一下,relu函数是不是有点相似。 请参阅。

)4)可以扩大感知范围。

)5)可以实现不变性,其中不变性有平移不变性、旋转不变性、尺度不变性。

参考链接:

[1] https://珠兰.智惠.com/p/27642620

[2] https://www.zhi Hu.com/question/36686900

[3] https://blog.csdn.net/Liyuan 123 zhouhui/article/details/61920796

2 .游泳池化主要有哪些种类? 1 )常规池化:

其中最常见的池化操作是平均池化、最大池化。

平均池化(average pooling ) :计算图像区域的平均值,并将该区域作为池化值。

最大池化(max pooling ) :选择图像区域的最大值作为该区域池化后的值。

(2)重叠池化:

重复池化是指相邻池化窗口之间存在重复区域,在这种情况下通常为sizeX stride。

(3)空金字塔池化(Spatial Pyramid Pooling )。

空间金字塔池化的思想来源于Spatial Pyramid Model,将一个pooling变成多个scale的pooling。 在不同尺寸的池化窗口中作用于上层的卷积特性。 也就是说,spatital pyramid pooling layer对上述卷积层的特征映射的各图像执行三次卷积操作,并且将其结果输出到所有连接层。 其中各pool操作可视为空间金字塔的一层。 (具体详情请参阅以下参考链接。 是详细的故事)

这样做的好处是,可以通过池化空间金字塔将任何比例的图像卷积特征转换为同一维。 这不仅可以使CNN处理任意大小的图像,还可以避免由于cropping和warping操作而丢失一些信息,具有非常重要的意义。

参考链接:

[1] https://blog.csdn.net/jurong hui/article/details/78648806

[2] https://blog.csdn.net/yzf 0011/article/details/75212513

[3] https://blog.csdn.net/u 011534057/article/details/51219959

部分引自链接: https://blog.csdn.net/xx _ 123 _1_ rj/article/details/86677482

最大轮询操作如下: 整个图像被剪切成不重叠的大小相同的小块后,在每个块中发出最大的值,舍弃其他节点,保持原来的平面结构进行中得到输出。 其中Max pooling在不同的深度下单独操作。

为什么要使用最大轮询? 最大轮询的物理意义是什么?

假设有一个224x224x64的矩阵。 为了减少参数集的设置,请提取其中重要特征(最大值)缩小为112x112x64的矩阵。 也就是说,下采样过程会对信息准确性fzdhc造成损失,但有助于计算效率和渐变过程。

而在图像卷积过程中,只存在很少的有用信息,大部分信息是冗馀信息,如信息源主要来自卷积的逐步操作。

所以采用最大轮询的作用是避免大量冗馀的信息干预。 Max pooling还具有类似于“选择语句”的功能。 如果有两个节点,其中第一个节点在特定输入情况下最大,则网络只在此节点上传播信息。 当其他输入使第二个节点的值最大时,网络将移动到该节点的分支点。

如果某些输入情况最大,则网络只在该节点上流通信息; 当其他输入使第二个节点的值最大时,网络将移动到该节点的分支点。

但是最大轮询也有不好的地方。 因为不是所有的抓取都像上面图例一样。 也有影响某个概念是否存在的判定的周边信息。 然后,最大轮询对所有的特征映射进行等价的操作。 就像用同样网眼的渔网捕鱼一样,一定有漏网之鱼。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。