首页 > 编程知识 正文

卷积神经网络基本变换,lenet卷积神经网络

时间:2023-05-03 11:41:37 阅读:134505 作者:2623

目录

1 )计算机视觉

2 )边缘检测扩展:理解

3 )模式边缘检测

4 )重点) ) )。

5 )重点)

6 ) Convolutions over volumes

7 )重点)。

8 ) asimpleconvolutionnetworkexample

9 )轮询层(理解) )

10 ) convolutionalneuralnetworkexample

11 ) Why concolutions?

以下笔记是cqdkl老师的深度学习课程第四课第一周的学习笔记。 foundationsofconvolutionalneuralnetworks。 笔记参考黄海广博士的内容,在此感谢。

1 ) Computer vision计算机视觉(Computer vision )的高速发展,展示了自动驾驶、人脸识别、创造新艺术风格等新的APP应用潜力。 对计算机视觉的研究也产生了许多计算机视觉与其他领域交叉的成果。 常见的计算机视觉问题包括以下几个类别:

图像分类目标检测神经样式变换)。

应用计算机视觉时面临的挑战之一是数据的维度可能非常大。 例如,在1000x1000x3的照片中,神经网络的输入层的维数为300万,网络的权重w非常大。 这带来了两个结果。

神经网络结构复杂,数据量相对较少,过拟合所需的内存和计算量巨大,因此一般的神经网络很难处理含有大量数据的图像。 解决这个问题的方法是使用卷积神经网络(Convolutional Neural Network,CNN )。

2 ) Edge detection example (理解)最常见的边缘检测有垂直边缘(Vertical Edges)检测水平边缘(Horizontal Edges)检测两种。

图像的边缘检测可通过与相应的滤波器进行卷积实现。 以垂直边缘检测为例,原始图像大小为6x6,中央矩阵称为滤波器(filter),大小为3x3,卷积后的图像大小为4x4,结果是:

值为例):

可以看到,卷积运算的求解过程是从左到右,由上到下,每次在原始图片矩阵中取与滤波器同等大小的一部分,每一部分中的值与滤波器中的值对应相乘后求和,将结果组成一个矩阵。

下图对应一个垂直边缘检测的例子:

如果将最右边的矩阵当作图像,那么中间一段亮一些的区域对应最左边的图像中间的垂直边缘。

这里有另一个卷积运算的动态的例子,方便理解:

图中的*表示卷积运算符号。在计算机中这个符号表示一般的乘法,而在不同的深度学习框架中,卷积操作的 API 定义可能不同:

在 Python 中,卷积用conv_forward()表示

在 Tensorflow 中,卷积用tf.nn.conv2d()表示

在 keras 中,卷积用Conv2D()表示。

3)More edge detection

如果将灰度图左右的颜色进行翻转,再与之前的滤波器进行卷积,得到的结果也有区别。实际应用中,这反映了由明变暗和由暗变明的两种渐变方式。可以对输出图片取绝对值操作,以得到同样的结果。

垂直边缘检测和水平边缘检测的滤波器如下所示:

其他常用的滤波器还有 Sobel 滤波器和 Scharr 滤波器。它们增加了中间行的权重,以提高结果的稳健性。

滤波器中的值还可以设置为参数,通过模型训练来得到。这样,神经网络使用反向传播算法可以学习到一些低级特征,从而实现对图片所有边缘特征的检测,而不仅限于垂直边缘和水平边缘。

4)Padding(重点)

假设输入图片的大小为 ,而滤波器的大小为 ,则卷积后的输出图片大小为 。

这样就有两个问题:

每次卷积运算后,输出图片的尺寸缩小;

原始图片的角落、边缘区像素点在输出中采用较少,输出图片丢失边缘位置的很多信息。

为了解决这些问题,可以在进行卷积操作前,对原始图片在边界上进行填充(Padding),以增加矩阵的大小。通常将 0 作为填充值。

设每个方向扩展像素点数量为,则填充后原始图片的大小为 ,滤波器大小保持 不变,则输出图片大小为 。

因此,在进行卷积运算时,我们有两种选择:

Valid 卷积:不填充,直接卷积。结果大小为 ;

Same 卷积:进行填充,并使得卷积后结果大小与输入一致,这样 。

在计算机视觉领域,通常为奇数。原因包括 Same 卷积中 能得到自然数结果,并且滤波器有一个便于表示其所在位置的中心点。

5)Strided convolutions(重点)

卷积过程中,有时需要通过填充来避免信息损失,有时也需要通过设置步长(Stride)来压缩一部分信息。

步长表示滤波器在原始图片的水平方向和垂直方向上每次移动的距离。之前,步长被默认为 1。而如果我们设置步长为 2,则卷积过程如下图所示:

设步长为,填充长度为,输入图片大小为 ,滤波器大小为 ,则卷积后图片的尺寸为:

                                                   

注意公式中有一个向下取整的符号,用于处理商不为整数的情况。向下取整反映着当取原始矩阵的图示蓝框完全包括在图像内部时,才对它进行运算。

目前为止我们学习的“卷积”实际上被称为互相关(cross-correlation),而非数学意义上的卷积。真正的卷积操作在做元素乘积求和之前,要将滤波器沿水平和垂直轴翻转(相当于旋转 180 度)。因为这种翻转对一般为水平或垂直对称的滤波器影响不大,按照机器学习的惯例,我们通常不进行翻转操作,在简化代码的同时使神经网络能够正常工作。

6)Convolutions over volumes

如果我们想要对三通道的 RGB 图片进行卷积运算,那么其对应的滤波器组也同样是三通道的。过程是将每个单通道(R,G,B)与对应的滤波器进行卷积运算求和,然后再将三个通道的和相加,将 27 个乘积的和作为输出图片的一个像素值。

不同通道的滤波器可以不相同。例如只检测 R 通道的垂直边缘,G 通道和 B 通道不进行边缘检测,则 G 通道和 B 通道的滤波器全部置零。当输入有特定的高、宽和通道数时,滤波器可以有不同的高和宽,但通道数必须和输入一致。

如果想同时检测垂直和水平边缘,或者更多的边缘检测,可以增加更多的滤波器组。例如设置第一个滤波器组实现垂直边缘检测,第二个滤波器组实现水平边缘检测。设输入图片的尺寸为 (为通道数),滤波器尺寸为,则卷积后的输出图片尺寸为,为滤波器组的个数。

7)One layer of a convolutional network(重点)

卷积神经网络的单层结构如下所示:

与之前的卷积过程相比较,卷积神经网络的单层结构多了激活函数和偏移量,计算过程如下:

                                                                  

                                                                  

对于一个 3x3x3 的滤波器,包括偏移量 在内共有 28 个参数。不论输入的图片有多大,用这一个滤波器来提取特征时,参数始终都是 28 个,固定不变。即选定滤波器组后,参数的数目与输入图片的尺寸无关。因此,卷积神经网络的参数相较于标准神经网络来说要少得多。这是 CNN 的优点之一。

符号总结

设 层为卷积层:

滤波器的高(或宽)

填充长度

步长

滤波器组的数量

输入维度: 。其中表示输入图片的高,表示输入图片的宽。之前的示例中输入图片的高和宽都相同,但是实际中也可能不同,因此加上下标予以区分。

输出维度:。其中

                                           

                                           

每个滤波器组的维度:。其中 为输入图片通道数(也称深度)。

权重维度

偏置维度

由于深度学习的相关文献并未对卷积标示法达成一致,因此不同的资料关于高度、宽度和通道数的顺序可能不同。有些作者会将通道数放在首位,需要根据标示自行分辨。

8)A simple convolution network example

一个简单的 CNN 模型如下图所示:

其中,的维度为 7x7x40,将 1960 个特征平滑展开成 1960 个单元的一列,然后连接最后一级的输出层。输出层可以是一个神经元,即二元分类(logistic);也可以是多个神经元,即多元分类(softmax)。最后得到预测输出 。

随着神经网络计算深度不断加深,图片的高度和宽度一般逐渐减小,而 在增加。

一个典型的卷积神经网络通常包含有三种层:卷积层(Convolution layer)池化层(Pooling layer)全连接层(Fully Connected layer)。仅用卷积层也有可能构建出很好的神经网络,但大部分神经网络还是会添加池化层和全连接层,它们更容易设计。

9)Pooling layers(理解)

池化层的作用是缩减模型的大小,提高计算速度,同时减小噪声提高所提取特征的稳健性。

采用较多的一种池化过程叫做最大池化(Max Pooling)。将输入拆分成不同的区域,输出的每个元素都是对应区域中元素的最大值,如下图所示:

池化过程类似于卷积过程,上图所示的池化过程中相当于使用了一个大小 的滤波器,且池化步长 。卷积过程中的几个计算大小的公式也都适用于池化过程。如果有多个通道,那么就对每个通道分别执行计算过程。

对最大池化的一种直观解释是,元素值较大可能意味着池化过程之前的卷积过程提取到了某些特定的特征,池化过程中的最大化操作使得只要在一个区域内提取到某个特征,它都会保留在最大池化的输出中。但是,没有足够的证据证明这种直观解释的正确性,而最大池化被使用的主要原因是它在很多实验中的效果都很好。

另一种池化过程是平均池化(Average Pooling),就是从取某个区域的最大值改为求这个区域的平均值:

池化过程的特点之一是,它有一组超参数,但是并没有参数需要学习。池化过程的超参数包括滤波器的大小、步长 ,以及选用最大池化还是平均池化。而填充 则很少用到。

池化过程的输入维度为:

输出维度为:

10)Convolutional neural network example

在计算神经网络的层数时,通常只统计具有权重和参数的层,因此池化层通常和之前的卷积层共同计为一层。

图中的 FC3 和 FC4 为全连接层,与标准的神经网络结构一致。整个神经网络各层的尺寸与参数如下表所示:

推荐一个直观感受卷积神经网络的网站。

11)Why concolutions?

相比标准神经网络,对于大量的输入数据,卷积过程有效地减少了 CNN 的参数数量,原因有以下两点:

参数共享(Parameter sharing):特征检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域。即在卷积过程中,不管输入有多大,一个特征探测器(滤波器)就能对整个输入的某一特征进行探测。

稀疏连接(Sparsity of connections):在每一层中,由于滤波器的尺寸限制,输入和输出之间的连接是稀疏的,每个输出值只取决于输入在局部的一小部分值。

池化过程则在卷积后很好地聚合了特征,通过降维来减少运算量。

由于 CNN 参数数量较小,所需的训练样本就相对较少,因此在一定程度上不容易发生过拟合现象。并且 CNN 比较擅长捕捉区域位置偏移。即进行物体检测时,不太受物体在图片中位置的影响,增加检测的准确性和系统的健壮性。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。