首页 > 编程知识 正文

论文格式,经典论文翻译

时间:2023-05-03 06:21:59 阅读:146348 作者:1202

ResNet原论文: deepresiduallearningforimagerecognition

ILSVRC2015冠军(分类、定位、检查)。 用残差块训练了152层网络。

解决了退化问题(plain网络的错误率随着网络的加深而提高) )。

网络加深:坡度消失或坡度爆炸。 这个问题可以通过正则初始化和BN解决。

退化问题:深层网络达到一定深度,准确率接近饱和且持续加深,准确率下降(degradation问题)。

这个问题不是因为过度拟合,在训练集中应该更好。 另外,这也不是因为坡度消失。

论文结构:

介绍引文(深度卷积神经网络的发展,通过网络深化、退化问题引出残差公式)相关工作(所用组件发展史)深度差网络的实验结果主要翻译第三节。

3 Deep Residual Learning深度残差网络3.1 Residual Learning假设h(x ) h(x ) h(x ) x ) x )是堆栈层实现的需要学习的隐藏映射。 其中,x x x被定义为这些层的第一层的输入。 假设多个非线性层可以渐近逼近复杂函数,这与假设它们可以渐近逼近残差函数h(x ) h(x )-xh (x ) x ) x相同。 假设输入和输出是同一维。 因此,与通过叠加各层来预测h(x )-h )-h )-x )相比,更期望这些层预测残差函数f(x ) :=H(x ) f(x ) :=H(x ) x ) x ) x ) 原始功夫变为f(x ) xf ) f(xf ) x (x ) x。 这两种形式都应该可以接近所需的函数,但学习的难易程度可能不同。

这种重新定义学习函数的动机是由关于退化问题的反直觉现象引起的(图1左)。 正如引文中讨论的那样,当添加的层可以看作恒等映射时,深模型的训练误差不能大于浅模型的训练误差。 劣化问题表明求解器在多个非线性层中可能难以接近恒等映射。 通过残差学习式,如果恒等映射最合适,求解器可以很容易地将多个非线性层的权重提升到0,使之接近恒等映射。

在实际例子中,恒等映射不是最佳操作,但我们的公式有助于重新定义问题的前提。 如果最佳函数接近恒等映射而不是零映射,则求解器应该更容易通过恒等映射找到扰动,而不是将其学习为新函数。 实验(图7 )表明学习的残差函数通常具有较小的响应,表明恒等映射提供了合理的预处理。

3.2基于identitymappingbyshortcutsshortcuts的稳态映射我们采用残差学习训练各级联层。 模块如图2所示。 在本论文中,模块的正确定义如下。

katex parse error 3360 nosuchenvironment : equationatposition 8:begin { equation } y=f (x,{W

_i}…
其中 x x x和 y y y是该模块的输入和输出。 F ( x , { W i } ) F(x,{W_i}) F(x,{Wi​})函数表示可学习的残差映射。对图2中所包含的两层例子, F = W 2 σ ( W 1 x ) F=W_2sigma(W_1x) F=W2​σ(W1​x),其中 σ sigma σ定义为ReLU,为了简化公式,偏差被舍去了。操作 F + x F+x F+x通过shortcut connection和element-wise addition组合实现。我们采用加法后接非线性激活函数的方法(如图2)。

​ 等式(1)中的shortcut connections不引入额外的参数也没有增加计算复杂度。这不仅在实践中很有吸引力,而且在我们比较普通网络和残差网络时也很重要。我们可以公平地比较同时具有相同数量的参数、深度、宽度和计算成本的普通/残差网络。

​ 等式(1)中 F F F和 x x x的维度应当相等。如果不相等(输入输出维度不一致),我们可以通过一个线性映射 W s W_s Ws​来实现维度的匹配:
y = F ( x , { W i } ) + W s x (2) y=F(x,{W_i}) + W_s x tag{2} y=F(x,{Wi​})+Ws​x(2)
我们将通过实验证明恒等映射足以解决退化问题并且是经济的,因此 W s W_s Ws​仅仅用来进行维度匹配。

​ 残差函数 F F F是灵活的公式。本文实验中的函数 F F F包含2-3层(如图5所示),当然更多层也是可行的。但如果 F F F只有一层,那等式(1)就相当于一个线性层 y = W 1 x + x y=W_1x + x y=W1​x+x,在该层中我们没发现优势。

​ 我们同样注意到虽然上述符号为简单起见是关于全连接层的,但它们同样适用于卷积层。 F ( x , { W i } ) F(x,{W_i}) F(x,{Wi​})可表示为多层卷积层。在单通道上实现两个特征图的逐元素相加。

3.3 Network Architectures 网络结构

​ 我们测试了各种各样的plain/residual网络,观察到了一致的现象。为了提供讨论的实例,我们描述了ImageNet的两个模型如下。

Plain Network. 我们的plain基准(图3中)受启发于VGG网络(图3左)。卷积层大多数是 3 × 3 3 times 3 3×3卷积,还遵循如下两种设计:(i)对于同样的输出特征图大小,该层中拥有相同数量的卷积核,(ii) 如果特征图尺寸变小一倍,卷积核的数量就增加一倍,以保持每层的时间复杂度。我么通过步长为2的卷积层直接执行下采样。网络的最后使用一层全局平均池化层和一个包含softmax的1000维度全连接层。层数的总量为34层(如图3中)。

​ 值得注意的是,我们的模型与VGG网络相比拥有更少的卷积核和更小的复杂度(图3左)。我们的34层基准拥有36亿FLOPs,只有VGG-19的18%。

Residual Network. 基于上述plain网络,我们插入shortcut connections(图3右),将网络变成其对应的残差版本。公式(1)中的恒等映射在输入输出维度相同的情况下能直接使用,(图3中的实线连接方式)。当维度增加时(虚线连接方式),我们考虑两种选项:(A) shortcut仍然为恒等映射,通过添加额外的0填充维度;(B) 公式(2)中的projection shortcut方式用于匹配维度(通过 1 × 1 1 times 1 1×1卷积)。对于两种选项,当shortcuts跨越两种大小的特征图时,它们使用步长为2的卷积实现。

3.4 Implementation 实现

​ 我们用于ImageNet的实现遵循AlexNet和VGG的实践。图像通过重整,将最短边随机采样为[256, 480]用于尺度增强。从图像或其水平翻转中随机采样 224 × 224 224 times 224 224×224裁剪,减去每像素平均值。AlexNet的标准颜色增强也被采纳。我们采用BN层,放在卷积层和激活函数层之间,如GoogLeNet v2中一样。我们采用[13]中的方法进行权重初始化,并从头训练所有普通/残差网络。我们使用SGD优化算法,mini-batch为256。学习率初始为0.1,当错误率下降遇到瓶颈时便降低10倍,总共训练 60 × 1 0 4 60 times 10^4 60×104轮次。我们使用权重衰减0.0001以及momentum设为0.9。不使用dropout。

​ 在测试中,为了比较研究,我们采用标准的10-crop测试。为了得到最好的结果,我们采用VGG中的全卷积模式,在多个尺度平均分数。(图像尺寸最短边被重整为{224,256,384,480,640})。

理解点 shortcut connectionresidual block 结语

欢迎关注微信公众号:繁星的人工智能厨房
~不定期为您提供深度学习菜肴~

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。