首页 > 编程知识 正文

cnn卷积神经网络测试数据,卷积和池化的作用

时间:2023-05-06 03:48:37 阅读:27834 作者:3207

x=TF.keras.layers.max pool 1d (pool _ size=1,padding='same ',input_shape=(none,10,32 ) ) (x ) )

Kernel_size(intortuple ) -最大轮询窗口大小

stride(intortuple,optional ) -最大轮询窗口移动的步骤。 默认值为kernel_size

填充(int or tuple,optional ) -填充输入的每条边为0的级数

dilation(intortuple,optional ) -控制窗口中元素步幅的参数

如果等于return_indices-true,则返回输出最大值的序列号,有助于上采样操作

如果等于cil_mode-true,则在计算输出信号的大小时,将使用上取而不是缺省的下取操作

池层:一方面压缩输入的特征图,另一方面减小特征图,简化网络计算的复杂性; 另一方面,进行特征压缩,提取主要特征,如下。

同样采用2*2的滤波器,最大轮询在每个区域寻找最大值,这里假设stride=2,最终从原始特征图中提取主要特征,得到右图。

) Avy pooling目前很少使用(实际上是平均池化层),但2*2的各区域的要素合计除以4可以得到主要特征),一般的filter为2*2,最多为3*3,stride为2

注意:这里的轮询操作是特征图的缩小,可能影响网络精度,可以通过增加特征图的深度来弥补(这里的深度是原来的两倍)。

由于图像中的相邻像素趋于具有相似的值,因此通常卷积层中的相邻输出像素也具有相似的值。 这意味着卷积层的输出中包含的大部分信息是冗馀的。

如果使用边缘检测滤波器在某个位置找到强边缘,也可以在距离此像素1个偏移的位置找到相对强的边缘。 但它们都是同一边的,我们什么都没找到新的。

池化层解决了这个问题。 该网络层表示通过减小输入的大小来减少输出值的数量。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。