当前位置:首页 » 《随便一记》 » 正文

生成式对抗网络(GAN)【第六章】

29 人参与  2022年10月20日 16:41  分类 : 《随便一记》  评论

点击全文阅读


文章目录

Generator NetworkGANUncoditional generationGeneratorDiscriminator Basic Idea of GANAlgorithmTheory behind GANWGANWasserstein distance Conditional GenerationConditional GAN


Generator Network

Network 拿来当 Generator 来使用

现在 Network 的输入会加上一个 randomvariable (z),z 是从一个分布中 取样出来的,现在的 Network 是同时看 xz 得到输出。

由于 z 的值随机,所以 y 的输出也就不一样,此时 Network 的输出不是单一的一个东西,而是一个复杂的 distribution

这个可以输出一个 distributionNetwork,我们就叫它 generator

在这里插入图片描述

GAN

Uncoditional generation

Generator

此时 Generator 它的输入就是 z,输出就是 y

假设 z 是从一个 normal distributionsample 出来的向量(维度自定义)
输出是一个卡通图像(可以看成一个高维度的向量)
当输入不同时,输出也会改变。

在这里插入图片描述

Discriminator

除了 generator 外,还需要训练 discriminator(本质上也是一个 neural network

它的作用是:拿一个图片作为输入,输出是一个数值(数字越大代表输入的图片越像是真实的二次元人物的图像)。

generatordiscriminator 都是 neural network,它们的架构完全可以人为设计/选择(如:CNNTransform)。

在这里插入图片描述

Basic Idea of GAN

直观上理解:generator 优化的目标是骗过 discriminator 的识别,而 discriminator 优化的目标是去更好的识别出 generator 生成的图像。

在这里插入图片描述

Algorithm

假设 GeneratorDiscriminator 的参数已经被初始化了。

固定住 generator,只训练此时的 discriminator
此时将随机产生的向量作为输入,输出的是很奇怪的一些图片
用真正的卡通图像跟 generator 产生出来的结果,去训练 discriminator(训练的目标是分辨真正的卡通图像与 generator 产生出来的卡通图像之间的差异)

在这里插入图片描述

固定住 discriminator,只训练此时的 generator(训练的目标是骗过 discriminator,也就是 discriminator 输出值越大越好)

在这里插入图片描述

反复的训练 discriminatorgenerator

在这里插入图片描述

Theory behind GAN

Normal Distribution 随机生成一堆 vector,丢到 Generator 以后,会产生一个比较复杂的 Distribution(叫做 PG),真正的 Data 也形成了另外一个 Distribution,叫做 Pdata,我们期待 PGPdata 越接近越好。

此时的 Loss function 可以理解为 PGPdatadivergence

在这里插入图片描述

通过 smaple 出来的数据来估测 Divergence
在这里插入图片描述
Discriminator 训练的目标:给来自 Pdata 的数据更高的分数,给来自 PG 的数据更低的分数。

最大化 Object function 这个 V,相当于要让前面的来自 PdatayD(y) 越大越好,后面的来自 PGyD(y) 越小越好。(等同于 Minimize Cross Entropy,当作训练一个 Classifier

在这里插入图片描述
小的 divergence 对应小的 Object FuctionMaximum 值:小的 divergence 说明 PGPdata 很像,对 discriminatortrain 一个 binaryclassifier)来说,这两对资料是混在一起的,那就很难分开,这个问题就很难,在解这个 Optiminzation Problem 的时候,就没有办法让这个 Objective 的值非常地大,所以 这个 Objective VMaximum 的值就比较小。

在这里插入图片描述
在这里插入图片描述
JS divergence 的问题
在这里插入图片描述
在这里插入图片描述

WGAN

Wasserstein distance 代替 JS divergence

Wasserstein distance

可以理解为用推土机将 P 推到 Q 的距离
在这里插入图片描述

可能有多种移动方法,Wd 需要用最小的一种来定义
在这里插入图片描述

在这里插入图片描述
Wasserstein distance 如何计算:

在这里插入图片描述
在这里插入图片描述

Conditional Generation

之前的 Generator 的输入都是一个随机的分布,而 Conditional Generation 是为了操控 Generator 的输出。给 Generator 一个 x 让其根据 x 和 z 来产生 y

在这里插入图片描述

Conditional GAN

discriminator 训练:需要将 yx 都作为输入,然后产生一个数值(图片辨别 + 图片跟文字匹配)

在这里插入图片描述
应用:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


点击全文阅读


本文链接:http://zhangshiyu.com/post/45357.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1