首页 > 编程知识 正文

卷积神经网络是干嘛的,卷积神经网络算法介绍

时间:2023-05-06 13:28:22 阅读:29466 作者:1014

这篇文章是总结性文章,正文引用了其他博客的概要和图片,如果有问题请联系删除。

1、机器识别图人看到一张图像时,可以直观地知道图像中的具体信息是否在一个整体上,机器也能马上识别图像吗? 当然不是! 机器需要将图像分成几个小块,从每个块中提取一些低级特征,然后从获取的低级特征中再次提取中级特征,然后提取高级特征。 这些特征提取过程是抽象的。 因为很难用语言说明机器提取了什么样的特征。 提取特征后,必须将所有特征组合起来,以确定图像上的内容

下一张照片是提取特征的过程。

二、卷积进入网络原理完成上述特征提取过程需要使用卷积神经网络(CNN ),CNN的识别图像一般如下:

卷积层提取特征池化层提取的主要特征是在全连通层上综合各特征分类器预测识别卷积层原理清晰,图像不仅有宽有高,而且有厚。 灰度厚度为1,彩色图表厚度为3。 其中,厚度一般描述为图像的“通道数”

这个彩色图表的通道数是3。

以下是有红、绿、蓝三色频道的直拍

虽然是灰度,但只有一个颜色通道

卷积层的作用是提取图像中各小部分特征卷积层遇到的若干概念卷积核: kernel,也称为滤波器,卷积核的宽度和高度通常为3x3或5x5。 在该例子中设为3x3。 我们的卷积核数值怎么确定? 其实,一旦确定了卷积核的大小和数量,我们通常首先用服从正态分布的随机数填充,然后在后续反向传播时计算机自动调整参数。 另外,卷积核不仅需要定义为1个,还需要定义为16个、32个等。 另外,每个卷积核都有不同的数值。 这些数值都是自己设定的,这些卷积核提示动作。 步骤(stride ) :如果当前步骤设定为1,他是什么意思? 其实是卷积内核。 每次向右或向下移动多少步? 在下面的视频中,步长以1移动,遍历图像。 设定步骤的理由是为了减少计算量。 padding:padding很复杂。 你可以看别人的博客。 舒适的蝴蝶填充笔记如果现在我有6x6x3彩色图像,现在就需要定义卷积内核来卷积图像。

在这个例子中,在计算机的眼里,6x6x3的色图全部是6x6x3在[ 0,255 ]之间的数字,卷积核也是3x3x3在[0-255]之间的数字。

上图是卷积在做的事,但上面只有一层。 实际上,有三层在进行卷积。

两个卷积核

如果需要注意,上面的两幅图都没有进行填充的SAME操作,因此图像将被压缩!

如上所述,由于卷积的数量可能不止一个,还有16、32等,因此如果只有一个卷积核心,则6x6x3在步长为1时输出4x4x1。 其中1个代表是卷积的,有16个、32个时输出4x4x(16或32 )。 (以16为例)

这样就完成了卷积过程,提取了一些特征。 目前,用于池化图像的操作轮询和卷积比较类似。 池化层的选择大小通常为2x2,stride为2,padding为SAME。 池化有两种形式: max_pooling和mean__

通常使用max_pooling,但经过2x2的轮询层后,原始大小发生变化,卷积后变为4x4x16,轮询后宽度、高度缩小一半,实现降维。max_pooling的作用是:

invariance (不变性)是参数)降维(效果类似于PCA )和计算量的减少,同时保持平移(旋转)旋转(比例)的主要特征

以下为max_pooling图例完成pooling后会接一个激活函数。 在实际问题中,需要解决的问题都是非线性问题,但卷积和轮询后也存在线性关系。 这需要激活函数,将线性变换为非线性。 常用的激活函数是ReLU

上述卷积、轮询、激活已经完成了特征提取的重要操作,然后再次重复上述过程,再次进行特征提取,得到更深层次的特征。需要注意的是图像已经变为2x2x16(以16个kernels为例)

可视化卷积层

全连通层全连通层(fully connected layers,FC ) )在整个卷积神经网络中充当“分类器”。 如果卷积层、池层、激活函数层等操作是将原始数据映射到隐层特征空间,则全连通层起到将学习到的“分布式特征表示”映射到样本标记空间的作用。

在分类工作中,经过全连接层输出的是一维,长度是类别的数量,以为向量的表示被分类为这样的分类的权重值,权重值越大,被分类为该分类的可能性越高。 接下来,softmax将其规范化,实际上类似于概率。 最后,在softmax之后的值越大,该模型就越预计此图像将属于此类别。

以下是双层折叠双层全连接的结构图

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。