首页 > 编程知识 正文

图像识别的方法有哪些,图像恢复算法

时间:2023-05-06 18:40:08 阅读:51343 作者:4779

CNN的经典结构始于1998年的LeNet,成为2012年历史性的AlexNet,以来主要在以下图像相关领域兴起:

LeNet,1998年

亚历克斯内特,2012年

ZF-net,2013年

谷歌网络,2014年

VGG,2014年

ResNet,2015年

深度学习中的网络总结

AlexNet的大致框架AlexNet是深度神经网络的开山之作,其中前五层包括卷积层、三层全连接层、softmax层的分类。 其中,ReLU激活函数、局部响应归一化、重复池化、最终层的全连接使用了dropout。

优点:提高精度(如加快速度、使用relu激活函数、重叠池和droupout )起了重要作用,使用GPU加快了培训速度。

缺点:参数量大,特别是全连接层参数量消耗计算资源,速度变慢

VGGNet的大致框架:在ALexNet的基础上,采用了多个3*3卷积核代替原大卷积核的方式。 使用了13个卷积层,3个全部连接层。 实现了良好的图像分类效果,首次使图像分类算法达到了“深”层的效果。

优点: vgg16网络泛化能力强,vgg16精度高。 vgg16适合于其他网络架构,并且使用小卷积而不是大卷积可以提高运算速度和非线性能力

缺点: vgg16计算量较大,参数量仍然较大,消耗计算资源,特别是第一个全连接层

谷歌网络的大致框架:最典型的特征框架是inception,利用横向积累的思想。 inceptionv1网络有22层网络,inception有11,33个由许多小的特征卷积核组成, 有5*5,构成,减少计算参数,避免消耗过多资源提高速度,分别位于使用小卷积核代替大卷积核的第3层和第6层,避免网络变深无梯度,最后避免损失

Inceptionv2利用滚转积分解和正交化思想,使网络速度更快,将大卷积核分割成许多小卷积核一起使用,其中利用将nn分割成1n和n*1的思想,使精度更好

Inceptionv4 :引入残差块思想,提高网络速度,避免了梯度消失问题。

优点:提高精度和速度,搞好参数量,利用打破传统的思想,利用横向堆放的思想思考问题,使问题更加简单,其中inception提出的思想为后面的残差网络铺就,有两个辅助分类器的加入

缺点:精度问题已得到部分解决,但存在随着网络加深坡度消失的问题,仍然存在参数量过大的问题,设置的参数较多

ResNet的大致框架: ResNet主要为了解决网络退化问题,提出让网络直接学习恒等映射。 网络退化问题理论上是指随着网络的加深,模型的性能越来越好;实际上,随着网络的加深,网络的精度达到一定的瓶颈,随着网络的加深,网络的质量逐渐提高因此,针对这个问题,ResNet提出了残差块的思想,解决网络退化问题。

优点:网络简单、通用性强,可以解决无坡度问题,实现更深的网络。

缺点:训练时间长,成本高。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。