当前位置: X-MOL 学术Knowl. Based Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Multi-generator GAN learning disconnected manifolds with mutual information
Knowledge-Based Systems ( IF 8.8 ) Pub Date : 2020-11-10 , DOI: 10.1016/j.knosys.2020.106513
Wei Li , Zhixuan Liang , Julian Neuman , Jinlin Chen , Xiaohui Cui

Original data usually lies on a set of disconnected manifolds rather than a smooth connected manifold. This causes the problem of mode collapse in the training of vanilla Generative Adversarial Network (GAN). There are many existing GAN variants that attempt to address this problem, but they result in limitations. The existing variants either produce simulated instances with low quality or generate identical simulated instances. In this study, we propose a new approach to training GAN utilizing multiple generators, a classifier and a discriminator to address mode collapse. The classifier outputs the statistical probabilities of generated data belonging to a specific category. These probabilities implicitly reflect which manifolds are captured by generators, and the correlation between generators is quantified by mutual information. Our idea views the mutual information values as a constraint to guide generators in learning different manifolds. Specifically, we traverse the generators, calculating the mutual information between each generator and the others. The calculated values are integrated into the generator loss to form a new generator loss and to update the corresponding generator’s parameters, using back-propagation. We minimize the mutual information to reduce the correlation between generators while also minimizing the generator loss. This ensures generators capture different manifolds while updating their parameters. A new minimax formula is established to train our approach in a similar spirit to vanilla GAN. We term our approach Mutual Information Multi-generator GAN (MIM-GAN). We conduct extensive experiments utilizing the MNIST, CIFAR10 and CelebA datasets to demonstrate the significant performance improvement of MIM-GAN in both achieving the highest Inception Scores and producing diverse generated data at different resolutions.



中文翻译:

多发电机GAN学习具有互信息的不连续流形

原始数据通常位于一组断开的歧管上,而不是平滑连接的歧管上。这会导致在香草生成对抗网络(GAN)训练中模式崩溃的问题。有许多现有的GAN变体试图解决此问题,但它们会带来局限性。现有的变体要么生成低质量的模拟实例,要么生成相同的模拟实例。在这项研究中,我们提出了一种使用多个生成器,一个分类器和一个鉴别器来解决模式崩溃的GAN训练新方法。分类器输出属于特定类别的生成数据的统计概率。这些概率隐式反映了生成器捕获了哪些歧管,并且生成器之间的相关性通过互信息来量化。我们的想法将互信息值视为指导生成器学习不同流形的约束。具体来说,我们遍历生成器,计算每个生成器与其他生成器之间的相互信息。使用反向传播,将计算出的值集成到发电机损耗中,以形成新的发电机损耗并更新相应的发电机参数。我们使相互信息最小化,以减少发电机之间的相关性,同时也使发电机损耗最小化。这样可确保发电机在更新其参数时捕获不同的歧管。建立了新的minimax公式,以与GAN香草相似的精神训练我们的方法。我们称之为方法 我们遍历生成器,计算每个生成器与其他生成器之间的相互信息。使用反向传播,将计算出的值集成到发电机损耗中,以形成新的发电机损耗并更新相应的发电机参数。我们使相互信息最小化,以减少发电机之间的相关性,同时也使发电机损耗最小化。这样可确保发电机在更新其参数时捕获不同的歧管。建立了新的minimax公式,以与GAN香草相似的精神训练我们的方法。我们称之为方法 我们遍历生成器,计算每个生成器与其他生成器之间的相互信息。使用反向传播,将计算出的值集成到发电机损耗中,以形成新的发电机损耗并更新相应的发电机参数。我们使相互信息最小化,以减少发电机之间的相关性,同时也使发电机损耗最小化。这样可确保发电机在更新其参数时捕获不同的歧管。建立了新的minimax公式,以与GAN香草相似的精神训练我们的方法。我们称之为方法 我们使相互信息最小化,以减少发电机之间的相关性,同时也使发电机损耗最小化。这样可确保发电机在更新其参数时捕获不同的歧管。建立了新的minimax公式,以与GAN香草相似的精神训练我们的方法。我们称之为方法 我们使相互信息最小化,以减少发电机之间的相关性,同时也使发电机损耗最小化。这样可确保发电机在更新其参数时捕获不同的歧管。建立了新的minimax公式,以与GAN香草相似的精神训练我们的方法。我们称之为方法互信息多生成器GAN(MIM-GAN)。我们使用MNIST,CIFAR10和CelebA数据集进行了广泛的实验,以证明MIM-GAN在实现最高初始得分和以不同分辨率生成各种生成的数据方面均具有显着的性能改进。

更新日期:2020-11-12
down
wechat
bug