OUR-GAN:单样本超高分辨率图像生成

选自arXiv

作者:Donghwee Yoon等

机器之心编译  编辑:蛋酱、张倩

在这篇论文中,研究者提出了 OUR-GAN,这是首个单样本(one-shot)超高分辨率(UHR)图像合成框架,能够从单个训练图像生成具有 4K 甚至更高分辨率的非重复图像。

e4da2cbcd15d8f6dfa6fc5e17695ae14.png

论文链接:https://arxiv.org/pdf/2202.13799.pdf

传统生成模型通常从相对较小的图像数据集中,基于 patch 分布学习生成大型图像,这种方法很难生成视觉上连贯的图像。OUR-GAN 以低分辨率生成视觉上连贯的图像,然后通过超分辨率逐渐提升分辨率。由于 OUR-GAN 从真实的 UHR 图像中学习,它可以合成具有精细细节的大规模形状,同时保持远距离连贯性。

OUR-GAN 应用无缝衔接的子区域超分辨率,在内存受限的条件下合成 4K 或更高分辨率的 UHR 图像,并解决了边界不连续的问题。此外,OUR-GAN 通过向特征图添加垂直位置嵌入来提高多样性和视觉连贯性。在 ST4K 和 RAISE 数据集上的实验结果表明:与现有方法相比,OUR-GAN 表现出更高的保真度、视觉连贯性和多样性。

我们来看一下 OUR-GAN 的合成效果,下图(上)是 OUR-GAN 训练使用的单个 4K 图像,(下)是 OUR-GAN 合成的 16K (16384 x 10912) 图像。

a313083295aad0a209f709fae5dc39f7.png

bee2a5405a898d46a2b3399ab3c16c86.png

以下几组是 OUR-GAN 合成的 4K 风景图:

688181f6e4bf49a6307229c696a5df8a.png

OUR-GAN 成功合成了具有多种图案的高质量纹理图像:

e0445abb37780be5f6e96ae8a2cf78d8.png

one-shot 超分辨率生成对抗网络

OUR-GAN 框架

OUR-GAN 通过三个步骤合成占用有限 GPU 内存的 UHR 图像,如下图 3 所示。首先,OURGAN 生成低分辨率的全局结构。然后通过 in-memory 超分辨率在内存限制内尽可能提高分辨率。最后,OURGAN 通过逐个子区域应用超分辨率来进一步提高超出内存限制的分辨率来合成 UHR 图像。

af947d66c475729005be75862a42ace4.png

超分辨率模型的输出分辨率受限于训练图像的分辨率。然而,ZSSR 和 MZSR 已经证明,通过利用信息的内部循环,超分辨率模型可以生成比训练图像大 2 到 4 倍的图像。

全局结构生成

从单个训练图像中学习合成具有全局连贯形状的不同图像,是一项具有挑战性的任务。该研究的初步实验比较了可以用单个图像训练的多个模型。其中,HP-VAE-GAN 表现出比其他模型更高的多样性,但全局一致性不足。因此,该研究选择 HP-VAE-GAN 作为第一步的基线模型,并通过应用垂直坐标卷积来提高全局一致性。HP-VAE-GAN 通过基于分层 patch 的生成方案合成图像,如方程式 (1)-(3),其中76d7254d4948bdbe05e9f0ccbc63bbe7.png3dd3e7b24b7bc2f18e00405799da3862.png40b667b9d850371b3ea4bbad4d0c97ec.png分别表示在尺度 m 下的生成器、合成图像和高斯噪声向量。符号↑代表上采样。

99af611455c2ae96e46633aefd109b89.png

首先,如等式 (1) 所示,HP-VAE-GAN 从高斯噪声bfc6e8974a696176f775864d34546563.png生成初始图像,然后如等式 (2)(3) 所示,逐渐增加分辨率。在 1 ≤ m ≤ L 的早期阶段,为了多样性,HP-VAE-GAN 应用 patch VAE [19],如方程式 (2),因为 GAN 模型的多样性由于模式崩溃问题而受到限制。然而,在 L < m ≤ M 的后期阶段,为了细节的保真,它应用了 patch GAN [22],如等式 (3)。

in-memory、子区域级超分辨率

在第二步和第三步中,OUR-GAN 专注于保真度,并通过添加精细细节来提高先前合成图像的分辨率。在第三步中,OUR-GAN 应用子区域超分辨率以将图像分辨率提高到超出内存限制。这些步骤中最大的技术挑战是使用单个训练图像学习超分辨率模型。该研究通过预训练 ESRGAN(一种以良好的输出质量而闻名的超分辨率模型)来实现高保真度,然后使用单个训练图像对其进行微调。在之前的工作中,有超分辨率模型,例如 ZSSR 和 MZSR [21],可以从单个图像中学习。然而,在初步实验中,预训练 ESRGAN 表现出比零样本超分辨率模块更高的图像质量。该研究使用 DIV2K 和 Flickr2K 数据集来预训练 ESRGAN。

在第二步中,研究者在先前合成的图像790840cc1aea87c17e3e58d97443505c.png中加入随机噪声2f3feca539706f0574bb949e8488b379.png,然后通过98a6c58a3d6940486d0c237c1a08a804.png中的超分辨率模型78b10eaa3ef48c03f1df1675fe8dfd75.png提高分辨率。在第三步中,他们将图像划分为子区域,对每个子区域图像进行超分辨率处理,然后将缩放后的子区域图像拼接成一幅更高分辨率的图像,如图 5 所示。这样的分区超分辨率可以重复多次,以产生 4K 或更高分辨率的 UHR 图像。

96e08979ccb0c0cf5f0fae0718e3b3b2.png

然而,如果没有精心设计,这种分区域的超分辨率会在边界处表现出不连续。在以前的工作中,有一些方法可以防止不连续性。以前的工作表明,不连续性的主要原因是输入特征图周围的零填充(zero-padding),并提出了一些补救措施。[28] 应用了重叠平铺(overlap-tile)策略,扩展输入子区域以阻止边界处零填充的影响。[12] 通过仔细设计具有交替卷积和转置卷积的网络来消除零填充。

由于后者需要重新设计网络,因此研究者对前者进行了改进。受 Wenjie Luo 等人 (2016) 的启发,研究者将重叠大小设置为 ERF 的半径,如图 6 所示,它明显小于 TRF。图 7 中的实验结果表明,等于 ERF 半径的重叠足以防止不连续性。ERF 的渐近逼近是 O (√depth), 而 TRF 的渐近逼近是 O (depth),这表明方法的好处是不可忽略的。

0487d4952b56ec1d14d7be1a3bdaab9b.png

049a1ba439a0b657585b31534f9863f5.png

研究者比较了没有重叠和 ERF 半径重叠的子区域超分辨率的结果。图 7 显示了子区域超分辨率输出图像与将图像整体放大的普通超分辨率输出图像之间的差异。图 7 (a) 表明,在没有重叠的情况下,子区域超分辨率在子区域边界处产生显着差异。然而,重叠的子区域减弱了这种差异。

实验结果

One-shot 4K 非重复图像合成

下图 8 展示了 OUR-GAN 生成的 4K 样本、基线模型以及 ground truth 图像。

89a49244b6c9647fb184c7336993cb97.png

图 8. OUR-GAN 生成的 4K 样本、基线模型生成的样本,以及 ground truth 图像。

InGAN 未能合成包含大量形状的可视化超高分辨率图像,因为它是通过重复从小样本训练中学到的小规模模式来合成图像。SinGAN 可以生成大规模的模式,但是未能捕捉到结构细节。然而,OUR-GAN 成功地合成了具有视觉连贯形状和精细细节的高质量图像。与其他模型相比,OUR-GAN 合成了最具视觉冲击力的图像。

如下表 1 所示,OUR-GAN 在定量研究中的表现也优于其他模型,它在所有配置中得分最高,这表明 OUR-GAN 综合了全局形状和局部细节的高质量图像。

46825301b570fa9ac0787b4217261496.png

全局连贯性和多样性

为了评估垂直坐标卷积的效果,研究者用其他模型替换了 OUR-GAN 的 first step 模型,并比较了合成图像的差异: SinGAN,ConSinGAN,HP-VAE-GAN,SIV-GAN。

e1dd1bd5033460f9551f14327927f32a.png

图 9。

图 9 展示了生成的图像。ConSinGAN 和 SIV-GAN 生成的模式多样性有限,而 HPVAE-GAN 合成的扭曲结构结合了不相关的模式。如图 10 所示,与 HP-VAE-GAN 相比,OUR-GAN 显著提高了模式的全局一致性,并且与 ConSinGAN 和 SIV-GAN 相比产生了更多样化的模式。

5836ddc918bcdd947fd2d40fe4c3de51.png

图 10: 采用垂直坐标卷积的效果。OUR-GAN 通过垂直坐标卷积的空间偏差来提高视觉连贯性。

1eb27ba3686439d4268f8d19c2475b16.png

表 2。

表 2 列出了定量评价的结果,OUR-GAN 在定量结果方面表现良好。OUR-GAN 的 SIFID 分数最低,这表明 OUR-GAN 在学习训练图像的内部统计数据方面是有效的。与 LPIPS 的其他基线相比,OUR-GAN 没有表现出显著差异。然而,高 LPIPS 并不总是表明模型产生高质量的图像,因为它不惩罚视觉上不协调的模式(附录 H 展示了高 LPIPS 视觉不协调的样本)。尽管与 HP-VAE-GAN 相比,OUR-GAN 缺乏多样性,但 OUR-GAN 可以合成视觉上更为连贯的图像。

One-shot 高保真度 4K 纹理图像合成

8d8abc50d5036bef545592d5fe38012a.png

该研究还评估了 OUR-GAN 合成高保真 UHR 纹理图像的性能。OUR-GAN 从 ST4K 纹理图像和合成 UHR 图像中学习,图 11 中展示了两个合成样本。

更多研究细节,可参考原论文。

猜您喜欢:

f59063a48930722bc3c8c6823c83d844.png 戳我,查看GAN的系列专辑~!

一顿午饭外卖,成为CV视觉的前沿弄潮儿!

超110篇!CVPR 2021最全GAN论文汇总梳理!

超100篇!CVPR 2020最全GAN论文梳理汇总!

拆解组新的GAN:解耦表征MixNMatch

StarGAN第2版:多域多样性图像生成

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

《基于深度学习的表面缺陷检测方法综述》

《零样本图像分类综述: 十年进展》

《基于深度神经网络的少样本学习综述》

19059375a96b1091894a2c39e4120c25.png

猜你喜欢

转载自blog.csdn.net/lgzlgz3102/article/details/123700641