首页 > 编程知识 正文

超分辨率重建能否看作焦距增加,超分辨率重建算法程序

时间:2023-05-05 21:37:07 阅读:15694 作者:2545

1.SRCNN:---2,3改进

开山制作、三个卷积层、输入图像的低分辨率图像经过三次插值和高分辨率的一个尺寸输入到CNN。

图像块的提取和特征表示、特征非线性映射和最终重建。 使用均方误差(MSE )作为损耗函数。

2. FSRCNN

特征提取:在低分辨率图像中,所选核心99设置为55。 用收缩:11的卷积核降维。非线性映射:串联的两个33卷积核可以置换55卷积核。 http://www.Sina.com/:用11的卷积核进行维数扩展。扩张:对于卷积层的逆操作,步长为n时,大小扩大到n倍,实现了上采样操作。

反卷积层

最后使用解卷积层扩大了大小,改变了可以将原始低分辨率图像直接输入网络的特征维,使用更小的卷积核,使用更多的映射层; 可以共享其中的映射层。 如果需要训练不同上采样倍率的模型,则只需要精细调整的最后一个反卷积层。

相对于SRCNN:

中心概念是亚像素卷积层,是输入原始低分辨率图像、三个卷积层,重新排列原始特征图像而成的高分辨率图像。

ESPCN激活函数采用tanh代替ReLU。 损失函数是均方误差。

3.ESPCN

如果只学习高分辨率图像和低分辨率图像之间的高频部分的残差,则可以访问—— 4. VDSR--7改进

输入插值了低分辨率图像的图像,将该图像和网络中学到的残差相加,得到最终网络的输出。

1 .加深网络结构(20层),2 .采用残差学习(自适应梯度限幅将梯度限制在一定范围内)。 3 .执行卷积校正0操作,以使特征图和最终输出图像在尺寸上匹配。 4 .多尺度影像联合训练

残差网络

5. DRCN:--7改进

输入的是插值的图像,分为三个模块。 第一个是嵌入式网络,相当于特征提取;第二个是信息网络,相当于特征的非线性映射;第三个是Reconstruction network,从特征图像中恢复最后的重建结果。 其中的Inference network是递归网络,数据循环通过该层多次。 展开该循环等效于使用同一参数集的多个串联卷积层。

递归神经网络结构

由对称卷积层-反卷积层构成的网络结构

RED网络的结构是对称的,每个卷积层都有相应的反卷积层。 卷积层用于获取图像的抽象内容,反卷积层用于扩大特征大小和恢复图像细节。

和4一样。 网络具有将输入的图像连接在后面并添加到最后一个卷积层的输出中的线条。

ED中间卷积层和反卷积层学习的特征是目标图像和低质量图像之间的残差。 RED的网络深度为30层,是损耗函数用的均方误差。

http://www.Sina.com/http://www.Sina.com /

ResNet是链模式的局部残差学习。 VDSR是一种全局残差学习。 dcn是全局残差学习单一权重递归学习的多目标优化。 DRRN是多路径模式的局部残差学习全局残差学习多权重的递归学习。

选择了1个递归块、25个残差单元、52个深度的网络结构

6. RED)

7. DRRN:(4,5,残差网络)一种在通过输入图像接入网络之前使用预定义的**********操作(例如bicubic )获取目标空间大小的方法此操作会增加计算开销,还会产生可见的重建对象。 另一方面,也有使用8. LapSRN:**********(改进前面大部分算法来代替预定义的上采样操作的方法,这些方法的网络结构相对简单,性能较差,不能学好从低分辨率图像到高分辨率图像的复杂映射。 第二,如果在训练网络时使用l2型论文中作者先总结了之前的方法存在有三点问题,则不可避免地会出现模糊的预测,并且所恢复的高分辨率图像通常过于平滑。 第三,在重构高分辨率图像时,仅进行一次上采样操作难以得到上采样的大倍数。

LapSRN是顺序上采样逐级预测残差的方式,即使高倍上采样也能得到中间低倍上采样结果的输出。 由于大小是逐步扩大的,所以并不是所有操作都是以较大的特征进行的,所以速度比较快。 由于LapSRN设计了损耗函数训练网络,监测了各级结果,取得了较好的结果。

9. SRDenseNet :

SRDe

nseNet将稠密块结构应用到了超分辨率问题上,这样的结构给整个网络带来了减轻梯度消失问题、加强特征传播、支持特征复用、减少参数数量的优点

10. SRGAN(SRResNet):**********

在这篇文章中,将生成对抗网络(Generative Adversarial Network, GAN)用在了解决超分辨率问题上

用均方误差优化SRResNet(SRGAN的生成网络部分),文章中的实验结果表明,用基于均方误差的损失函数训练的SRResNet,得到了结果具有很高的峰值信噪比,但是会丢失一些高频部分细节,图像比较平滑。而SRGAN得到的结果则有更好的视觉效果。其中,又对内容损失分别设置成基于均方误差、基于VGG模型(损失函数)低层特征和基于VGG模型高层特征三种情况作了比较,在基于均方误差的时候表现最差,基于VGG模型高层特征比基于VGG模型低层特征的内容损失能生成更好的纹理细节。

11. EDSR:**********

EDSR最有意义的模型性能提升是去除掉了SRResNet多余的模块,从而可以扩大模型的尺寸来提升结果质量

这篇文章还提出了一个能同时不同上采样倍数的网络结构MDSR。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。