所有文章 > 正文

生成对抗网络(GANs)最近研究成果

作者: 漆毅 唐杰

时间: 2019-05-16 10:14

生成对抗网络Generative Adversarial Networks (GANs)最近的一些研究,GAN最近几年发展非常快,也是Yoshua Bengio获得图灵奖的贡献之一。

生成对抗网络Generative Adversarial Networks (GANs)最近的一些研究,GAN最近几年发展非常快,也是Yoshua Bengio获得图灵奖的贡献之一。

传统的生成模型是要预测联合概率分布P(x,y)。

rbm这个模型其实是一个基于能量的模型,1986年的时候就有,他在2006年的时候重新拿出来作为一个生成模型,并且将其堆叠成为deep belief network,使用逐层贪婪或者wake-sleep的方法训练,不过这个模型效果也一般现在已经没什么人提了。但是从此开始hinton等人开始使用深度学习重新包装神经网络。

Auto-Encoder也是上个世纪80年代hinton就提出的模型,此时由于计算能力的进步也重新登上舞台。bengio等人又搞了denoise Auto-Encoder。

Max welling等人使用神经网络训练一个有一层隐变量的图模型,由于使用了变分推断,并且最后长得跟auto-encoder有点像,被称为Variational auto-encoder。此模型中可以通过隐变量的分布采样,经过后面的decoder网络直接生成样本。

然后就是GAN这个生成模型,可以说是现在最火的生成模型。这个工作有多火呢?2014年Goodfellow在NIPS上发表了最初的GAN文章,到现在已经有近九千引用。为啥这么火?一个确实理论上很优雅,大家理解起来简单方便。二就是效果确实好。看上面这一排,是基于GAN的一些应用文章,下面这些是改进GAN的训练的一些文章。这些文章的引用基本也是爆炸的。这种火爆程度他本人有明确认识。去年他有个twitter就讲,那些四十岁下的深度学习研究者,但凡有些重要成果,日均引用都要比那些大几十年的研究者高。

那Goodfellow本人就是少年得志的典范。他本科在斯坦福,硕士在Andrew Ng手下,博士就跑到蒙特利尔 Yoshua Bengio 手下了。他另外还有一个导师Aaron Courville。大家现在经常讲的花书Deep Learning,作者就是Ian Goodfellow和他两个博士导师。他是85年人,发表GAN在2014年,29,还差一年才30。GAN这个工作也给Goodfellow带来了很多荣誉,比如17年就被MIT under 35选中了。Goodfellow博士毕业后去了Google Brain,后来又跳到open AI,又跳回google,现在在苹果做特别项目机器学习项目负责人。实际上现在他也就34岁。

另外,GAN是Ian Goodfellow在蒙特利尔的时候出的工作。大家知道今年图灵奖给了深度学习三巨头。其中的Bengio,在图灵奖官网上给获奖理由,选的三个贡献之一就是GAN。另外两个贡献分别是90年代的序列概率模型和00年代的语言模型。GAN可以说是Bengio的代表作之一了,甚至可以说帮助他拿图灵奖。实际上Bengio此前有些深度生成模型的工作,比如13年的GSN。但那个模型要用马尔科夫链的稳态分布去近似真实分布,就不如GAN优雅,关注的人就比较少了。

大家再看cycleGAN和vid2vid这两个工作的共同作者  

Jun-Yan Zhu。他是清华计算机系8字班的,当时年级排名第二。毕业去了卡梅,结果老板从卡梅跑到伯克利,于是他就跟着去了伯克利。他现在在MIT做博后。除了这里列的两个工作,他还有个著名工作pix2pix。这些项目全部开源,github星标都好几千,文章本身引用也上千,影响力很大。

去年nips企业展示会场,英伟达把vid2vid配合方向盘,做了个实物demo,非常酷炫。我们今天也要看下这个demo。

图里边还有个清华三字班17届学生,Zinan Lin,是电子系的。这个工作理论味道比较重,我们今天会简单过一下这工作的基本思想。

图里边还有一个华人Ting-Chun Wang,他是台湾同胞

二维码 扫码微信阅读
推荐阅读 更多