Pix2NeRF: Unsupervised Conditional π-GAN for Single Image to NeuralRadiance Fields Translation

Pix2NeRF: 用于单幅图像到神经辐射场转换的无监督条件π-GAN

paper:https://arxiv.org/pdf/2202.13162.pdf

code:https://github.com/sxyu/pixel-nerf


NeRF 所要做的 task 是 Novel View Synthesis(新视角合成任务):在已知视角下对场景进行一系列的捕获 (包括拍摄到的图像,以及每张图像对应的内外参),合成新视角下的图像。


2D图片“脑补”3D模型,这次真的只用一张图就行了——只需要给AI随便喂一张照片,它就能从不一样的角度给你生成“新视图”:

更有意思的是,这只名叫Pix2NeRF的AI,连训练用的数据集都有点“与众不同”,可以在没有3D数据、多视角或相机参数的情况下学会生成新视角。

可以说是又把NeRF系列的AI们卷上了一个新高度。

用GAN+自动编码器学会“脑补”

在此之前,NeRF能通过多视图训练AI模型,来让它学会生成新视角下的3D物体照片。

然而,这也导致一系列采用NeRF方法的模型,包括PixelNeRF和GRF,都需要利用多视图数据集才能训练出比较好的2D生成3D模型效果。

而多视图数据集往往有限,训练时间也比较长。因此,作者们想出了一个新方法,也就是用自动编码器来提取物体姿态和形状特征,再用GAN直接生成全新的视角图片。Pix2NeRF包含三种类型的网络架构,即生成网络G,判别网络D和编码器E。

其中,生成网络G和判别网络D组成生成对抗网络GAN,而编码器E和生成网络G用于构成自动编码器

首先,自动编码器可以通过无监督学习,来获取输入图像的隐藏特征,包括物体姿态和物体形状,并利用学习到的特征重建出原始的数据;然后,再利用GAN来通过姿态和形状数据,重构出与原来的物体形状不同的新视图。

这里研究人员采用了一种叫做π-GAN的结构,生成3D视角照片的效果相比其他类型的GAN更好(作者们还对比了采用HoloGAN的一篇论文):

用糊图也能生成新视角

作者们先是进行了一系列的消融实验,以验证不同的训练方法和模型架构,是否真能提升Pix2NeRF的效果。

例如,针对模型去掉GAN逆映射、自动编码器,或不采用warmup针对学习率进行预热等,再尝试生成新视角的人脸:

 其中,GAN逆映射(inversion)的目的是将给定的图像反转回预先训练的GAN模型的潜在空间中,以便生成器从反转代码中重建图像。

实验显示,除了完整模型(full model)以外,去掉各种方法的模型,生成人脸的效果都不够好。

随后,作者们又将生成照片的效果与其他生成新视图的AI模型进行了对比。

结果表明,虽然Pix2NeRF在ShapeNet-SRN的生成效果上没有PixelNeRF好,但效果也比较接近:


思考

这里使用的是“神经辐射场” + “GAN” ,那么我们改为“神经辐射场” + “diffusion” 会不会更好?

然后就是我这里做的任务是将 3D的分子或者蛋白质序列的照片进行NeRF ,也就可以由一张2D的分子 / 蛋白质照片得到多种视角下的照片,不知道这么做有没有现实意义?

一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹-51CTO.COM

猜你喜欢

转载自blog.csdn.net/weixin_43135178/article/details/128472783