首页 > 编程知识 正文

神经网络最优解,卷积神经网络cnn原理

时间:2023-05-05 16:07:36 阅读:13588 作者:3383

整个卷的神经网络通常用于实现图像分割的功能。 以下,以U-net为例,说明它是如何实现的。

上采样:上采样又称编码阶段,可见整个网络结构并不复杂。 这里,以二维图像为例,输入图像的维数为572*572,首先进行2次3*3*64的卷积,由于未补偿0,因此每次卷积得到的特征映射的纵横比在逐渐减小2的同时,feature map的纵横比逐渐减小可见最后一层的feature map为28*28*1024,倒数第二层的feature为56*56*1024。

下采样:缩减像素采样也称为解码阶段。 接下来看看右边的操作。 绿色向上的箭头表示反卷积。 简单来说,例如,2*2的卷积是在2*2的像素点上卷积一个像素点,而2*2的反卷积是在1*1的像素点上分别乘以四个权重滤波器,从而获得2*2的像素点集合。 因此,左边最底层为28*28*1024,经过2*2的反卷积后为56*56*1024。 后面的操作很相似,右边不断向上反卷积。

跨层连接:还有一个重要特点。 看看灰色的箭头吧。 不同的层间有层之间的连接。 例如,在第一层生成的性能图为568*568*64,其中的392*392*64和右侧采样的392*392*,因此392*392*128的性能图为由于跨层级联的作用是优化细节结果,并且对经编码的高维特征进行解码获得的结果很粗糙,所以不同阶段编码的池化层输出结果被输入到解码阶段。

3358www.Sina.com/:最后一个特征层的宽度、高度和输入图像的宽度、高度完全相同,要注意的是,在最后一个图例中显示的最后一个feature map是2,因为这是二分类分割问题。 这里有跨层连接的设定

输出层:最后介绍损失函数。 对于与U-Net中的每个像素对应的softmax,softmax定义如下:

这里,表示分类、位置()处的像素点的活性化,表示分类数,是近似的最大函数。 对于有最大活性的,对于其他的。 因此,各像素点的交叉熵可以表示为:

在此,表示各像素点的实际的label是其像素点的权重,在训练中,能够对若干像素点提供更高的权重。

另一个损失函数是Dice coefficient :

“差集”是评估分割效果的常用方法之一,同样也可以作为损耗函数来测量分割结果和标签之间的间隙。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。