首页 > 编程知识 正文

骆驼祥子第四章读书笔记,读书笔记

时间:2023-05-05 15:13:23 阅读:10608 作者:968

在本章中,我们将数据编码到latent space中,扩展维以了解变形自动编码器中的建模生成难题Krase和使用自动编码器生成手写数字的自动编码器的局限性,并将本章添加到GANs的设计动机中

1 .生成模型对很多人来说是比较新的未知领域,不能很好地理解。 因此,本章给出了关于自动编码器这一生成模型的研究。 读者愿意直接学习GANs的一部分的小白菜放心地跳过本章。

2 .生成模型是一个非常具有挑战性的模型。 例如,如何评价生成样品的质量?

3 .这仍然是一个活跃的研究领域。

2.1生成包含模型摘要像素值的三个现有矩阵(相应图像的颜色通道),然后在翻译系统中将这些矩阵最终翻译成不同的数字。 如果把这个过程反过来呢?

我们事先记述想得到的东西,在翻译系统另一端的终点得到图像。 这是生成模型最简单、最普通的模式。 本书将进行更深入的说明。

latent space是一种更容易、更隐藏数据点的表示形式。

2.2 howdoautoencodersfunctiononahighlevel? 自动编码器由编码器和解码器两部分组成。 以有助于理解自动编码器的“压缩”为例。

假设要在含有健忘症意思的香水中说明机器学习工程师的工作,必须用有限的篇幅说明所有的术语。 假设他们仍然能够阅读和理解基础概念。 也就是说,他们学习的从潜在空间z到x的翻译几乎是随机初始化的。 在说明之前,必须重新训练他们的大脑结构。 必须通过传递概念x来训练自动编码器,以确定他们是否能够以有意义的方式复制它们(x )。 因此,可以测量它们的误差,称为重建损失(||x-x|| )。 先解码样本x,然后编码得到x,根据前后两个样本求出重构误差。

生活中我们不需要时间来解释已知的概念。 人类交流活动中充满了自动编码的过程。 我们不需要解释什么是机器学习工程,只是解释他们的自动编码器可以理解的概念。

我们可以压缩。 因为在一些重复的概念中,简化为已经同意的抽象(例如,职务)是有用的。 自动编码器可以自动覆盖信息的有效模式,并进行定义和使用。 最后,因为只需要传输低维数据z,所以可以节约带宽。

定义:

latent space是数据的隐藏表示。 自动编码器根据对数据的理解对其进行压缩和聚类。

2.3 What are autoencoders to GANs? 自动编码器的主要区别之一是使用损耗函数端到端地训练整个网络,而GAN对生成器和分类器有独特的损耗函数。 图2.1的生成模型都是AI和ML的子集。

GANs有两个相互竞争的目标,不能用一个函数来表达。

2.4 what is an auto编码模式of? 与机器学习中的许多进步一样,自动编码器的高级概念是直观的,并遵循这些简单步骤,如图2.2所示

编码器网络:获取表示x的y维数据(如图像),并通过学习的编码器将y维降低到z维。 latentspace(z ):latent space就像显示或运行低维数据的中间步骤。 解码器网络:我们使用解码器将原始对象重建为原始维。 这通常由神经网络完成,神经网络是编码器的镜像。 这是从z到x *的步骤。 我们应用逆编码过程,例如从潜在空间获得256个像素值长度向量的784个像素值长度的重构向量2828图像。 训练自动编码器示例:

取图像x,输入自动编码器得到x*,重建图像测量重建损失。 即,测定原图像x和重构图像x*之间的差异,对两图像的像素间的距离(例如平均误差)最佳的显示目标函数(|xx *|) ) ) ),所以通过找到编码器和解码器的参数,使梯度下降引起的重构损失最小化

2.5使用自动编码器时,需要知道自动编码器的原因。

首先,免费压缩! 这是因为图2.2中的中间步(2)变成在潜在空间的维度中智能缩小的图像和对象。 请注意,理论上,这可能比原始输入少几个数量级。 它显然没有受损,但如果我们愿意,我们可以自由使用这个副作用。

还在使用潜在的空间,可以考虑像分类器(异常检测算法)这样的很多实用化。 其中,可以在简单、可更快搜索的潜在空间中查看项目,以检查其与目标类的相似性。 它可用于搜索(信息搜索)和异常检测设置(潜在空间中的接近度比较)。

另一个用例是黑白图像数据的去噪或彩色化。

一些GANs结构(如ECGAN )将自动编码器作为结构的一部分,以帮助稳定培训过程。

训练自动编码器不需要带标签的数据。 在接下来的会谈中,我将解释为什么在没有监督的情况下学习如此重要。 这使我们的工作变得容易。 因为只有自我训练,不需要人工寻找标签。

最后,可以使用自动编码器生成新图像。 自动编码器已经应用于很多领域。 但是,图像分辨率越高,生成的图像通常越差,输出越容易模糊。 然而,像MNIST数据集和其他低分辨率图像一样,自动编码器的性能很好。 将显示代码。

所以这些事情都可以做。 因为我找到了新的数据表示。 此表示法对于显示核心信息非常有用。 核心信息是本机压缩的,但也很容易根据潜在的表示法进行操作和生成新数据。

2.6无

监督学习

定义:无监督学习是指从无标签的数据中学习的一种机器学习方法。例如,聚类是一种无监督学习。但是异常检测通常是一种监督学习,我们需要人为标签的异常样本数据。

2.6.1 New take on an old idea新观念取代旧观念

自动编码器是一个比较老的idea,但是随着现今很多工作的深入,将深度学习作为编码器、解码器的一部分应该没人会惊讶。

一个自动编码器由两个神经网络组成:一个编码器一个解码器。在我们的例子中,两者都有激活函数,我们将为每个函数使用一个中间层。这意味着每个网络有两个权重矩阵———一个是从输入到中间层,一个是从中间层到latent。再然后,一个从latent到不同中间层,然后再从中间层到输出。如果只有一个权重矩阵,我们的过程与已构建好的分析技术叫做主成分分析法。

2.6.2 使用自动编码器的生成器

我们在一组图像上训练自动编码器。 我们调整编码器和解码器的参数,以找到适合两个网络的参数。 我们还对示例在潜在空间中的表示方式有所了解。 为了生成,我们切断了编码器部分,仅使用了潜在空间和解码器。 图2.3显示了生成过程的示意图。

2.6.3 变分自动编码器

在自动变分编码器中,我们选择将latent space表示为学习到的均值和标准差的分布,而不仅仅是一组数字。我们选择多元dmddp分布。
变分自动编码器是基于贝叶斯机器学习的技术。在实践中,这意味着我们必须学习分布,这增加了进一步的约束。 换句话说,频率自动编码器将尝试以数字数组的形式学习潜在空间,但是贝叶斯自动编码器(例如,变分式)会尝试找到定义分布的正确参数。然后,我们从潜在分布中采样并得到一些数字。 我们通过解码器提供这些数字。 我们返回一个看起来像原始数据集中的示例的示例,只是它是由模型新生成的。

2.7 代码是关键

本书使用Keras。

2.8 Why did we try aGAN?

VAE在生成数据的任务中有很大局限性,而GANs更适合生成数据任务。(原文写了一大段,并加以举例说明,核心意思就这一句)

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。