pix2pix 模型 daiding

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_41185868/article/details/83217889

除了损失外,pix2pix 模型还对判别器的结构做了一定的小改动。之前都是对整张图片输出一个是否真实的概率。pix2pix模型提出了一种Patch GAN 的概念。PatchGAN对图片中每个NxN的小块(Patch)计算概率,然后再将这些概率求平均值作为整体的输出。这样做可以加快计算速度以及加快收敛。

图9-5比较了PatchGAN相对整张图片进行计算的效果。最左边的一张图是不使用GAN而使用L1损失,往右依次是使用1x1、16 x16 、70x70 、 
256x256的PatchGAN。由于图片的尺寸是256,因此256×256的PatchGAN 
等价于原来对图像整体计算概率。从图中可以看出,使用1x1和16x16的Patch GAN产生的图片效果不算很好,原因在于Patch取得太小了。但70×70的Patch GAN产生的图片已经和图像整体计算并没再太大差别了。 

猜你喜欢

转载自blog.csdn.net/qq_41185868/article/details/83217889