微信扫一扫
分享到朋友圈

ICLR 2019 | 有效稳定对抗模型训练过程,伯克利提出变分判别器瓶颈

作者:机器之心 来源:机器之心 公众号
分享到:

11-19

选自 openreview

作者:Xue Bin Peng 等

机器之心编译

参与:Geek AI、路


近期,加州大学伯克利分校的研究者提出一种新型简单而通用的方法变分判别器瓶颈(VDB),利用信息瓶颈约束判别器内信息流,通过对观测结果和判别器内部表征之间的互信息进行约束来稳定对抗性模型的训练过程。该论文已被 ICLR 2019 接收,获得了6、10、8的评分。


对抗性学习方法为具有复杂的内部关联结构的高维数据分布的建模提供了一种很有发展前景的方法。这些方法通常使用判别器来监督生成器的训练,从而产生与原始数据极为相似、难以区分的样本。生成对抗网络(GAN)就是对抗性学习方法的一个实例,它可以用于高保真的图像生成任务(Goodfellow et al., 2014; Karrasrt et al.,2017)和其他高维数据的生成(Vondrick et al.,2016;Xie et al.,2018;Donahue et al.,2018)。在逆向强化学习(inverse reinforcement learning)框架中也可以使用对抗性方法学习奖励函数,或者直接生成模仿学习的专家演示样例(Ho & Ermon, 2016)。然而,对抗性学习方法的优化问题面临着很大的挑战,如何平衡生成器和判别器的性能就是其中之一。一个具有很高准确率的判别器可能会产生信息量较少的梯度,但是一个弱的判别器也可能会不利于提高生成器的学习能力。这些挑战引起了人们对对抗性学习算法的各种稳定方法的广泛兴趣(Arjovsky et al., 2017; Kodali et al., 2017; Berthelot et al., 2017)。


本研究提出了一种简单的对抗性学习正则化方法,该方法利用信息瓶颈的变分近似约束从输入到判别器的信息流。通过对输入的观测数据和判别器的内部表征之间的互信息施加约束,我们可以促使判别器学习到使原始数据和生成器的数据分布有很多重叠的数据表征,从而有效地调整判别器的准确率并维持生成器能够带有足够信息量的梯度。这一使对抗性学习稳定的方法可以看作是实例噪声的自适应方差(Salimans et al., 2016; Sønderby et al., 2016; Arjovsky & Bottou, 2017)。然而,该研究证明了这种方法的自适应特性至关重要。约束判别器内部表征和输入之间的互信息可以使正则化项能够直接限制判别器的准确率,这可以自动完成对噪声大小的选择,并将这样的噪声应用到该输入的压缩表征上,该表征是经过专门优化的,能够对生成器生成的数据和原始数据分布之间最明显的差异进行建模。


这项工作的主要贡献是变分判别器瓶颈(variational discriminator bottleneck,VDB),如图 1 所示,这是一种用于对抗性学习的自适应随机正则化方法,可以显著提高其在不同应用领域上的性能。该方法可以很容易地应用于各种任务和架构。首先,研究者在一组具有挑战性的模仿学习任务上评估了该方法,这些任务包括从模拟人形机器人的 mocap 数据(动作捕捉数据)中学习高度复杂的技巧。该研究提出的方法还使模拟机器人能够直接从原始视频演示样例中学习动态连续的控制技能,相对于使用对抗性模仿学习的之前工作有很大的改进。研究者进一步评估了逆向强化学习技术的有效性,该技术可以从演示样例中恢复奖励函数,用于训练未来的策略。最后,研究者将该框架应用于生成对抗网络的图像生成任务上,在许多情况下,使用 VDB 可以提高模型的性能。


图 1:该研究提出的方法是通用的,可应用于大量对抗学习任务。左:使用对抗模仿学习进行运动模拟。中:图像生成。右:通常逆向强化学习学习可迁移奖励函数。


论文:VARIATIONAL DISCRIMINATOR BOTTLENECK: IMPROVING IMITATION LEARNING, INVERSE RL, AND GANS BY CONSTRAINING INFORMATION FLOW 



  • 论文链接:https://openreview.net/forum?id=HyxPx3R9tm

  • arXiv链接:https://arxiv.org/pdf/1810.00821.pdf


摘要:对抗性学习方法已经得到了广泛的应用,但是众所周知,对抗性模型的训练是很不稳定的。有效地平衡生成器和判别器的性能是至关重要的,因为一个判别器如果达到很高的准确率,就会产生信息量较少的梯度。本研究提出了一种利用信息瓶颈约束判别器内信息流的简单而通用的技术。通过对观测结果和判别器内部表征之间的互信息进行约束,我们可以有效地调整判别器的准确率,保持有用的、信息量较大的梯度。我们证明了我们提出的变分判别器瓶颈(VDB)可以在三个不同的对抗式学习算法应用领域中显著提升模型的性能。我们初步的评估研究了 VDB 对动态连续控制技能(如跑步)的模仿学习的适用性,证明我们的方法可以直接从原始视频演示样例中学习这些技能,大大超过之前的对抗性模仿学习方法的性能。VDB 还可以与逆向强化学习结合,学习可在新的环境下迁移并重新优化的简洁奖励函数。最后,我们证明了 VDB 可以更有效地训练用于生成图像的 GAN,相对于之前的稳定方法取得了一定的提升。


图 2:左图:变分判别器瓶颈概览。编码器首先将样本 x 映射到潜在分布 E(z|x) 上。接着,训练判别器从潜在分布中对样本 z 进行分类,将信息瓶颈 I(X, Z) ≤ I_c 作用于 z。右图:被训练用来通过不同 KL 边界 I_c 区分两个高斯分布的判别器的可视化结果。


图 3:模拟人形机器人正在执行各种技能。VAIL 能够从 mocap 数据中逼真地模仿各种技能。


图 4:比较 VAIL 与其他运动模仿方法的学习曲线。使用模拟特征与参考运动形态之间的平均关节旋转误差来测量性能。每种方法都使用 3 个随机种子进行评估。



表 1:人形机器人在运动模拟任务中的平均关节旋转误差(弧度值)。除了使用(Peng et al., 2018)中人为设计的奖励函数训练的策略,VAIL 在所有技能的评估中都优于其它方法。


图 7:左图:C 形迷宫和 S 形迷宫。当在左边的迷宫中训练时,AIRL 学得对于训练任务过拟合的奖励,因此这个奖励不能迁移到右边的迷宫中。相比之下,VAIRL 学习了一种更平滑的奖励函数,可以实现更可靠的迁移。右图:两个训练迷宫的翻转测试的性能。我们报告了 5 次运行后的模仿学习任务的平均返回值(±std. dev)以及用于生成演示样例的单个专家的平均返回值。


图 8: 在 CIFAR-10 数据集上使用 VGAN 和其它方法的对比结果,这里使用 Frechet Inception 距离(FID)作为评价指标。


图 9:在 CIFAR-10、CelebA 128×128 和 CelebAHQ 1024×1024 数据集上使用 VGAN 得到的随机图像样本。



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

阅读9186
模型 伯克利 
举报0
关注机器之心微信号:almosthuman2014

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“机器之心”微信公众号,文章版权归机器之心公众号所有。

评论
更多

文章来自于公众号:

机器之心

微信号:almosthuman2014

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。