论文阅读分享(一)AutoGAN-Distiller:Searching to Compress Generative Adversarial Networks

一. The address of paper
AutoGAN-Distiller:Searching to Compress Generative Adversarial Networks
这篇论文是ICML2020的一篇文章,其研究方向是GAN网络的模型压缩
论文地址:
https://arxiv.org/abs/2006.08198
在这里插入图片描述
二. The introduction of paper
文章中在开头abstract中就写到GAN的模型较大,不适合应用于移动设备的部署,因此对GAN的模型压缩办法,引起了广泛的注意。在论文中使用AutoML与知识蒸馏结合的办法进行GAN网络的模型压缩,研究出的AGD方法,一种自动独立的GAN网络压缩方法。广泛应用于图像风格迁移与超分辨率领域中。再此篇文章中使用cycleGAN,与pix2pix网络模型进行对消融对比实验论证
三. The related work of paper
1.GAN 模型
GAN,(Generative Adversarial Networks )生成对抗网络,模型中包括生成器和判别器,两个网络模型
G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)
D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片
在这里插入图片描述
GAN网络模型广泛应用于图像风格迁移,去雾,去雨等图像处理生成领域。
显而易见,由于两个卷积(反卷积)网络模型,网络结构很深,难以部署于移动设备。
2. 知识蒸馏
在这里插入图片描述
知识蒸馏,通过模仿前者生成的软标签,将知识从一种模型转移到另一种模型。 它通过拟合由预训练的大型模型生成的软标签而被广泛用于学习紧凑型网络,因此压缩后者。
四. the model and experienment
在这里插入图片描述 本篇论文的方法中通过AutoML,与知识蒸馏进行pretrained model 的模型结构的search ,并且进行模型量化减小模型的尺寸,加快推理速度,部署于移动设备。具体训练步骤参考文中training details
利用知识蒸馏的特性不断更新迭代预训练的生成器模型达到模型压缩的目的。
paper中进行对比消融实验,针对图像风格迁移的应用,文中使用cycleGAN的原始模型,对其memory与FID性能指标进行列举。
FID 分数被用于评估由生成性对抗网络生成的图像的质量,较低的分数与较高质量的图像有很高的相关性。
同时包括实际设备上的帧率延迟,以及硬件的推理速度生成网络的Flops
在这里插入图片描述
本文的CycleGAN也是执行了四个dataset,
horse2zebra, zebra2horse, summer2winter, winter2summer,性能指标的示意图·如下图所示
在这里插入图片描述
Super resolution 的部分,本人没有进行复现,感兴趣的读者可以自己动手试一试,看看模型压缩后的图像处理效果。
以下是我测试的官方paper效果以外的几张图片,我使用的是sum2winter,夏季冬季风格迁移,推理速度明显加快,且风格迁移效果也很好。
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/baidu_39629638/article/details/107273725