首页 > 编程知识 正文

生成对抗模型,huffman编码的基本原理和步骤

时间:2023-05-04 09:55:56 阅读:41986 作者:981

构建对抗网络DC gan abstract1. introduction2. related work3.改进模型框架参考

译文: deepconvolutiongenerativeadversarialnetworks

代码: pytorch

收录: ICLR 2016

注意:fractional-strided convolution(微步卷积)是反卷积的,反卷积下还有反卷积。

Abstract卷积网络CNNs在监督学习领域取得了很好的成果,但在无监督学习领域对CNNs的研究很少,因此作者想在无监督学习领域尝试CNNs,提出了CNNs和GAN相结合的DCGAN。

之后,通过大量数据集的训练,证明了DCGAN的生成器g和判别器d在物体构成部分和场景中都学习到了丰富的层次表现。

http://www.Sina.com/:与GAN相比,DC gan对CNN进行了改进:

用卷积(d )和微步卷积(g )代替池化层; 仅生成器输出层和分类器输入层使用BN,其他层未使用; 使用全局平均池化而不是FC的生成器的输出层使用Tanh激活函数,其他层使用RELU,而鉴别器的所有层使用LeakyReLU激活函数。

1. Introduction是一个非常受欢迎的研究领域,从大量未加标签的数据中学习有用的特征表示,在计算机的视觉背景下,可以从大量未加标签的图像和视频中学习良好的中间表示形式,并将其运用到监督学习中。 我们提出了通过训练GAN来建立良好的图像中间表示形式,但GAN的一个大问题是其训练非常不稳定,有时会产生奇怪的结果,对建立中间形式的研究很少。

论文核心思想

为了确保DCGAN的稳定使用,我们往往会提出并评估一系列卷积GAN结构限制,然后使用训练有素的判别器进行图像分类任务。 这与其他不受监视的算法相比,结果具有优势。 可视化DCGAN的filters后发现,特定的filter可以学习特定目标的绘制; 生成器g具有有趣的向量运算性质,因此可以对生成的样本进行语义操作。

2. Related Work针对我们有如下几个贡献使用无监督学习和http://www.Sinna.com/。

生成自然图像时,该步骤分为参数和非参数。

聚类:从现有图像数据库匹配图像的小块(patch ),一般用于纹理合成(texture synthesis )、超分辨率图像合成、图像校正等。auto-encoders:该方法很早以前就有研究,2014年提出GAN后,该模型可以生成图像,但不稳定,有时会产生噪声和奇怪的图像。 此后,2015年提出了laplacian pyramid extension的GAN,生成的图像质量更好,但由于引入了多个模型噪声而不稳定。 之后,提出了recurent network approach和deconvolution (反卷积)方法,可以生成一定质量的图像,但是他们没有利用生成器g完成监视任务。

3 .模型结构的改进LAPGAN作者试图迭代地将低分辨率图像逐步转换为更好的图像,产生更可靠的结果。 本文在运用传统监督学习CNN体系结构和扩展GAN的过程中,遇到了困难。 经过反复实验和尝试,作者提出了一系列的体系结构,使GAN CNN更稳定,deeper成为可能,可以生成更高分辨率的图像。 的中心工作是对现有的CNN体系结构修改了以下三个方面。

深度信念网络:用卷积代替确定性的空间池操作,让网络自身学习下采样。 作者在生成器和判别器中采用了这种方法,使他们能够学习在自己的空间采样。 http://www.Sina.com/:使用全局平均池化代替fc时,全局平均池化可以提高模型的稳定性,但收敛速度降低。 GAN的第一层以均匀的噪声分布z为输入,可以称为完全连接。 因此,reshape是四维张量(因为它只是矩阵乘法),用作卷积堆栈的起点。 对于判别器,最后一个卷积层将flatten取平,然后可以在sigmoid识别器中输入3358www.Sina.com/:Blatten通过将每个单元的输入归一化并将其平均值和单位方差设置为零来稳定学习这有助于帮助因初始化错误而导致的训练困难,并有助于在更深层次的模型中实现梯度流。 证明这是促使深层发生器开始学习的关键,避免发生器将所有样本压缩到一个点是GAN中常见的问题。 实践表明,将BN直接应用于all layers会导致样本振荡和模型不稳定,因此仅将BN用于生成器的输出层和分类器的输入层。非参数:对于发生器g,输出层使用tanh激活函数,其余层使用relu激活函数。 我们发现使用bounded激活函数可以加速模型学习,饱和和覆盖颜色空间。 在鉴别器d中,我们发现最好对d的所有层使用leaky relu,特别是在生成高分辨率图像时。参数

全卷积网络包含倒排卷积和微步卷积。 两者的不同之处在于,如下图所示,填充的方式不同。

参考DC GAN论文简析一至gan【论文】(二) —— DCGAN

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。