探讨GAN背后的数学原理(下)

电子说

1.2w人已加入

描述

2.2 判别器:有问题?GAN来了!

GAN由生成器G和判别器D组成。

其实上面我们已经基本介绍了生成器G的由来了,并且我们遇到了一个问题: 深度学习极其复杂的计算方式导致使用极大似然估计根本无从下手啊!!!

为了解决这个问题,我们引入了判别器D!

现在GAN的结构就完备了!!

对于生成器G:

  1. G 是一个函数,输入深度学习 ,输出(上面已经介绍了)

    深度学习

  2. 先验分布 深度学习, 深度学习和G共同决定的分布深度学习

对于判别器D:

  1. D是一个函数,输入深度学习,输出一个scalar
  2. D用于评估深度学习深度学习之间的差异(解决上一小节提出的问题)

那么,GAN的最终目标-->用符号化语言表示就是:

深度学习

我们的目标是得到使得式子深度学习最小的生成器深度学习.

关于V:

深度学习

给定G, 深度学习衡量的就是分布深度学习深度学习的差异。

因此,深度学习也就是我们需要的使得差异最小的 G .

详细解释 V(G,D) :

对于深度学习:

固定G ,最优深度学习 最大化:

深度学习

假设D(x) 可以表达任何函数

此时再固定 x ,则对于 深度学习,我们可将其看成是关于D的函数: 深度学习

深度学习

解得

深度学习

即:

深度学习

则此时对于原式 V(G,D) (将深度学习代入):

深度学习

JSD表示JS散度,它是KL散度的一种变形,也表示两个分布之间的差异:

深度学习

与KL散度不同,JS散度是对称的。

以上的公式推导,证明了深度学习确实是衡量了 深度学习深度学习之间的差异。

深度学习

此时,最优的G:

深度学习

也就是使得深度学习最小的G

深度学习

深度学习时,表示两个分布完全相同。

对于深度学习 ,令 深度学习

我们该如何优化从而获得深度学习呢???

我们希望通过最小化损失函数L(G) ,找到最优的G。

这一步可以通过梯度下降实现:

深度学习

具体算法参考:

第一代:

  1. 给定深度学习(随机初始化)
  • 确定深度学习 使得 V(深度学习,D) 最大。此时 V(深度学习,深度学习) 表示深度学习深度学习的JS散度

  • 梯度下降:深度学习 .得到

    深度学习

第二代:

  1. 给定深度学习
  • 确定深度学习 使得V(深度学习,D) 最大。此时V(深度学习,深度学习)表示深度学习深度学习的JS散度

  • 梯度下降:深度学习 .得到

    深度学习

。。。

后面的依此类推

以上算法有一个问题: 如何确定深度学习使得 V (D ,G**)**** 最大???**

也就是:给定 G,如何计算 深度学习

回答:

深度学习采样深度学习

深度学习采样深度学习

因此我们可以将深度学习从期望值计算改写为对样本计算(近似估计):

深度学习

这很自然地让我们想到二分类问题中常使用的交叉熵loss

因此,我们不妨联想:

D是一个二分类器,参数是深度学习

来自深度学习的采样深度学习作为正样本

来自深度学习的采样深度学习作为负样本

那么此时,我们就将问题转化成了一个二分类问题:

交叉熵loss大 -->深度学习深度学习 JS散度小

交叉熵loss小 -->深度学习深度学习 JS散度大

此时,D就是可以使用一个神经网络作为二分类器,那么确定D,也就是可以使用梯度下降来优化获得D的最终参数。

GAN的最终算法流程:

初始化参数深度学习(for D)和深度学习(for G)

对于训练的每一轮:

第一部分 学习优化判别器D:

  • 深度学习采样深度学习

  • 深度学习 采样

    深度学习

  • 通过生成器 深度学习获得生成样本

    深度学习

  • 梯度下降更新深度学习来最大化 :

    深度学习:

    深度学习

注:以上第一部分可以重复多次:此过程本质上是在测量两分布之间的JS散度

第二部分 学习优化生成器G:

  • 再从深度学习采样另一组深度学习
  • 梯度下降更新深度学习来最小化 : 深度学习:深度学习 .实际上深度学习第一项与G无关,梯度下降只需最小化深度学习即可。

注:以上过程仅一次

最后的话:

其实在GAN之前,就已经有Auto-Encoder,VAE这样的方法来使用神经网络做生成式任务了。

GAN的最大的创新就是在于非常精妙地引入了判别器,从样本的维度解决了衡量两个分布差异的问题。

这种生成器和判别器对抗学习的模式,也必将在各种生成式任务中发挥其巨大的威力。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分