首页 > 编程知识 正文

(【GANs学习笔记】(十五)EBGAN、BEGAN)

时间:2023-05-03 09:04:03 阅读:124154 作者:717

完整注: http://www.gwy lab.com/note-gans.html

——3354——————3354——————335433543354————3——3——3——3333——333333——33333——333333——333——3333——3

本章参考内容:

3359 blog.csdn.net/QQ _ 25737169/article/details/77575617? 位置编号=1fps=1

2. EBGAN EBGAN的全称是能源基础gan,只是修改了描述符,并不判断输入图像是否来源,而是判断输入图像的重构性是否较高。 具体来说,discriminator本来的目的是寻找和的不同,给画质打分,但现在不是通过寻找不同来打分,而是通过“强记忆”让discriminator只记住你长什么样,任意给自己打分接下来详细介绍。

首先,图中的autoencoder事先在实际图像中进行了训练。 也就是说,如果输入是来自实际数据集的图像,则此自动编码器可以生成与输入非常相似的图像。 但是,如果输入其他图像,则自动编码器的输出与输入不类似。 现在,将该autoencoder放入discriminator,每当discriminator输入image x时,通过该autoencoder得到重构图像x’,将x和x’的差分值作为评价输入图像x的质量好坏的基准差值越低,意味着输入图像越符合实际图像的特征。

由此可见,EBGAN的最大特点是discriminator从一开始就非常强。 因此,生成器从一开始就可以获得相对较大的“能量驱动”(energy based ),从一开始生成器就进步非常快。 所以如果我们喜欢训练效率,想在短时间内得到好的生成器,可以考虑EBGAN。

而且,上面写的太简单了,我重新写了关于EBGAN的详细说明。 【GANs学习笔记】(23 )对EBGAN的深刻理解

3.*从比根比根和比根来看,两者似乎确实有一些关联。 BEGAN的全名是边界均衡GAN (边界均衡GAN ),借鉴了EBGAN和WGAN各自的优点,即使GAN使用简单的网络,也完全不用担心模式崩溃),具有良好的发展前景

直观地说,两个分布越接近,他们被认为越相似,并且如果生成的数据分布非常接近实际数据分布,则生成器具有足够的生成能力。 作者认为,代替这种估计概率分布的方法,比根并不直接估计生成分布Pg与真实分布Px之间的差,而是估计分布误差分布之间的差,如果分布之间的误差分布接近,则这些分布相近。

在比根,作者作出了以下四项贡献:

1 .提出了一种新的简单强大的GAN网络结构,采用标准训练方式在不训练的情况下训练路线也能快速稳定地收敛

2 .对gan中g、d能力的平衡提出了平衡的概念

3 .提供图像多样性和生成质量平衡的超级参数

提出了仅在WGAN中可见的收敛度估计。

这个包装器偏向于理论,所以不详细介绍。 (逃跑。 感兴趣的读者自己研究,附上非常好的说明博文。

3359 blog.csdn.net/QQ _ 25737169/article/details/77575617? 位置编号=1fps=1

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。