首页 > 编程知识 正文

有名的艺术家(人民艺术家都有谁)

时间:2023-05-03 09:55:39 阅读:88509 作者:3646

mmydyet是从Hackernoon编译的

量子出品|公众号QbitAI

目前,作为处理图像生成问题的绝佳方法,生成对抗网络(GAN )在超分辨率重构、风格迁移等领域取得了许多有趣的成果。

(例如,量子比特是昨天推荐的去马赛克大法)

但是,GAN只是模仿怎么办? 最近的新研究改善了GAN,教会了机器创造。

这些广受好评的画是美国罗格斯大学的计算机科学研究室、脸书人工智能研究部、查尔斯顿大学艺术史系联合发表的新论文,can : creative Adversarial Networksgenerating“art”

这篇论文提出了创造性对抗网络(Creative Adversarial Networks ),探索了利用机器生成创造性内容的可能性。

Hackernoon的发文介绍了这篇论文的主要内容,量子比特翻译如下:

在阅读本论文之前,希望你了解神经网络的概念和损失函数和卷积操作等基本概念。

GAN网络和CAN网络的几种生成图像

回顾GAN网络

GAN网络由两个斗争神经网络组成,分别称为生成器和分类器。

从字面上看,生成器的作用是基于输入生成数据。 这个输入可以是噪音,也可以是其他类型的数据。 分类器的作用是分析数据,区分该数据属于原始输入数据还是由生成器生成的生成数据。

一般来说,GAN网络可以被视为基于生成器和分类器的对抗游戏:

方程式1.0

简单版解释

如果你觉得上述方程式太复杂了,不要担心。 接下来将分阶段介绍这个方程式,详细说明各部分的意思。

方程式1.1

上面是极大极小方程式的符号,文字g和d分别表示生成器Generator和分类器Discriminator。 生成器的任务是最小化方程式1.0的值,同时分类器的任务是最大化方程式1.0的值。 这两者在程序发出停止的命令之前,将不断进行竞争。

方程式1.2

如果输入x是来自原始数据集的数据,则分类器的输出指示它是真实数据。

方程式1.3

方程式1.3计算了分类器向生成器输入的输出值。 d(g(z ) )表示分类器判断为输入数据是真实数据的概率,1-d ) g ) z ) )表示分类器判断为输入数据是生成数据的概率。 g(z )表示由生成器生成的数据。

统一上述方程,得到分类器的任务是将以下方程最大化。

方程式1.4

生成器的任务是将方程式1.4的值,也就是方程式1.5的值最小化。

方程式1.5

有关GAN网络的更详细说明,请参见英属哥伦比亚大学的在线课程。

在线课程地址: http://wiki.UBC.ca/course : CPSC 522 /通用_通用_网络

从模仿到创造

生成器通过不断调整自身,使得分类器将生成图像标记为实际图像,分类器也不断调整自身,指出生成图像和原始图像的不同。

这不是简单的模仿吗?

某种程度上,是这样的。 生成器的目标是愚弄识别器,使其认为生成数据与实际数据尽可能相似。 那么,如何实现呢? 通过使对应的输出与实际数据极为相似。

如何让互联网更有创意?

创造性的对抗网络来了!

论文的作者为了产生创意的内容,提出了改进的GAN网络: CAN。 该网络应该如何通过向生成器发送附加信号来实现,以避免生成与原始数据过于相似的内容? 作者在方程式中

1.4中修改了最初的GAN网络损失函数。

CAN简单解释

在原始的GAN中,鉴别器通过判断输入数据与真实数据的相似程度得到一个输出值,生成器就是根据这个输出值来修改其权重。CAN网络可以通过以下两种方式来扩展此过程:

1. 鉴别器不仅会判断数据是真是假,而且还可以确定该艺术图像的所属年代;

2. 生成器将会接收鉴别器中附加的年代信息,并使用该指标与鉴别器的(可真可假)输入进行联合训练。

改进目的

原始GAN网络的存在问题是不会探索新的内容,训练的唯一目标只是使生成数据与真实数据集尽可能相似。

通过对输入数据所属年代进行分类的附加度量,可能会带有置信度列表,生成器可以获得其生成数据与某个年代相似程度的反馈信息。

现在,生成器不仅要使生成数据与真实数据集相似,而且还要确保其与某个类别不过于相似。这条规则将限制生成器产生带有具体特征的艺术图像。

新的损失函数定义如下:

△ 方程2.0

真的很简单!

第一行与原始方程完全相同。但是要注意,下标r代表鉴别器的输出是真或是假,下标c为鉴别器分类的输出值。

第二行为提高创造性的改进点,接下来详细解释。

△ 方程2.1

上述公式使得鉴别器能正确获取输入图像的类别。鉴别器将会努力最大化该概率值,来正确得到输入图像的年代类别。

△ 方程2.2

这个方程可能看起来很复杂,但这只是定义了多标签交叉熵损失(Multi Label Cross Entropy Loss),这里的K表示图像类别的数目。在分类器中,也使用了该损失函数。生成器在训练过程中通过最小化该值来最大化方程2.0的值。

方程2.2的直观解释

方程2.2的作用是,如果某个类的得分值接近1或0,则整个方程的值接近于无穷大。

方程2.2可以取到最大值时,此时意味着鉴别器完全不确定输入图像属于哪一类,即上述方程中的计算和都相同,这也是生成器想完成的结果。

这是有一定依据的,因为如果鉴别器不可能将输入图像正确地分类到现有的某一类中,则意味着该数据与原始数据相同。

结论

本文讨论了一种能根据已有数据推进GAN网络探索新内容的损失函数,通过改进原有的损失函数来进行探索,期待更有趣的研究。

相关链接

CAN论文:

https://arxiv.org/abs/1706.07068

损失函数详细信息:

https://christopher5106.github.io/deep/learning/2016/09/16/about-loss-functions-multinomial-logistic-logarithm-cross-entropy-square-errors-euclidian-absolute-frobenius-hinge.html

【完】

一则通知

量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。ldfj、活力的豌豆、害怕的樱桃、fqdsb等鲜艳的柚子都在群里。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~

招聘

量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。