首页 > 编程知识 正文

转置卷积和反卷积,反卷积公式

时间:2023-05-06 16:23:44 阅读:160682 作者:2005

什么是反卷积参考博客

我们知道,当输入图像通过卷积神经网络(CNN )提取特征时,输出的大小往往会变小。 此外,还需要将图像恢复为原始大小以进行进一步的计算。 将图像大小整体放大,并将图像从小分辨率映射到大分辨率的操作称为上采样)

反卷积是上采样的一种方式,反卷积也叫转置卷积。

图1去卷积原理图(stride=1)上图显示了去卷积的工作过程。 与卷积过程的主要区别在于,解卷积输出的图像尺寸大于输入图像的尺寸。 要实现这个,请添加padding。 上图显示了stride为1的解卷积过程。

图1反卷积原理图(stride=2)在进行反卷积的时候设置的stride并不是指反卷积在进行卷积时候卷积核的移动步长,而是被卷积矩阵填充的padding

例如,上图中原输入为33的输入,此时进行卷积处理,设定为stide=2。 操作在33的每一行中插入一行和一列的0填充。

其次,我们还需要注意一个事,通过反卷积并不能还原之间的矩阵,只能从大小上进行还原,反卷积的本质还是卷积,只是在进行卷积之前,会进行一个自动的padding补充0,从而使得输出的矩阵和指定输出的矩阵的shape相同

如上图所示,用33卷积核对44的输入进行卷积,得到22的输出,然后进行逆卷积,发现不是原始输入。 其实很简单。 第一个数加九个数等于4.5。 不能用一个方程式解9个未知数。 因此,卷积无法恢复原来的输入,只能保证shape是相同的。

参考博客彻底理解CNN的卷积和反卷积

3359 blog.csdn.net/sinat _ 29957455/article/details/8558870

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。