首页 > 编程知识 正文

vgg16,vgg16结构图

时间:2023-05-03 14:05:51 阅读:18890 作者:1457

目录

前言

VGG原理

下面解释了为什么可以用两个3x3卷积核代替5*5卷积核:

VGG网络结构

VGG的优缺点

VGG的好处

VGG的缺点

前言VGG是一组来自Oxford的http://www.Sina.com/isual 3358 www.Sina.com/Sina.com/roup VGG有V两种结构,两者没有本质区别,但网络深度不同。

GVGG16对AlexNet的一个改进是G。 对于给定的感觉域(与输出相关联的输入图像的局部大小),采用叠置的小卷积核比采用大卷积核更好。 这是因为多层非线性层可以增加网络深度来学习更复杂的模式,成本也小(参数也少)。

简而言之,VGG使用3个3x3卷积核代替7x7卷积核,使用2个3x3卷积核代替5*5卷积核。 这样做的主要目的是在保证具有相同感知范围的前提下,提高网络深度,在一定程度上提高神经网络的效果。

例如,三个步长为1的3x3卷积核的叠加效应可以被认为是大小为7的感知域,实际上表明三个3x3连续卷积对应于一个7x7卷积,其参数总量为3x(9xc^2),773连续卷积这里c是指输入输出的通道数。 很明显,27xC^2小于49xC^2(即,减小了参数),并且3x3卷积核有利于更好地保持图像的性质。

VGG16和VGG195x5卷积认为小的全连接网络在5x5区域滑动,并且此时如果55卷积匹配,则每次卷积获得的功能图大小为11

此时,假设有两个33的卷积核。 如果首先使用33卷积滤波器进行卷积,则得到的特征贴图为33,然后使用33卷积层,最后得到的特征贴图的大小也为11

现在,可以使用两个3x3卷积级联(重叠)来代替5x5卷积。

具体如下图所示。

两个3x3和5x5

为什么可以用3个3x3卷积核代替7*7卷积核,推导过程与上述类似,大家可以自己制图理解。

VGG原理以下是VGG网络的结构。 (VGG16和VGG19都有。 )

VGG网络结构

VGG16包括16个隐藏层(13个卷积层和3个全部连接层),如上图d列所示,VGG19包括19个隐藏层) 16个卷积层和3个全部连接层),如图上图e列所示,VGG网络的结构非常一致,从开头到结尾

如果希望看到更形象的VGG网络,可以使用经典的卷积神经网络(CNN )结构可视化工具查看高清晰度、无代码的VGG网络。

3358 www.Sina.com/http://www.Sina.com/VG gnet的结构非常简洁,整个网络使用相同大小的卷积核心大小(3x3)和最大池大小(2x2 )。 一些小滤波器(3x3)卷积层的组合优于大滤波器(5x5或7x7 )卷积层。 验证了通过不断加深网络结构可以提高性能。采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)VGG消耗了更多的计算资源,使用了更多的参数(这里不是3x3卷积锅),这里解释一下为什么使用2个3x3卷积核可以来代替5*5卷积核:。 这些参数大部分来自第一个全连接层。 VGG有三个全连接层呢。

PS :一些文章显示,移除这些所有连接层对性能影响不大,参数明显减少。

注意:许多预培训的方法是使用VGG型号(主要是16和19 )。 与其他方法相比,VGG具有更大的参数空间,最终型号至少为500m,只有200m的AlexNet,而GoogLeNet更少,因此train的单个VGG模型需要更长的时间

译文:一文读VGG网络-我知道

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。