用糊图也能生成新视角照片?

2D图片“脑补”3D模型 , 这次真的只用一张图就行了——
只需要给AI随便喂一张照片 , 它就能从不一样的角度给你生成“新视图”:
用糊图也能生成新视角照片?
文章图片

文章图片

不仅能搞定360°的椅子和汽车 , 连人脸也玩出了新花样 , 从“死亡自拍”角度到仰视图都能生成:
用糊图也能生成新视角照片?
文章图片

文章图片

更有意思的是 , 这只名叫Pix2NeRF的AI , 连训练用的数据集都有点“与众不同” , 可以在没有3D数据、多视角或相机参数的情况下学会生成新视角 。
可以说是又把NeRF系列的AI们卷上了一个新高度 。
用GAN+自动编码器学会“脑补”
在此之前 , NeRF能通过多视图训练AI模型 , 来让它学会生成新视角下的3D物体照片 。
然而 , 这也导致一系列采用NeRF方法的模型 , 包括PixelNeRF和GRF , 都需要利用多视图数据集才能训练出比较好的2D生成3D模型效果 。
用糊图也能生成新视角照片?
文章图片

文章图片

而多视图数据集往往有限 , 训练时间也比较长 。
因此 , 作者们想出了一个新方法 , 也就是用自动编码器来提取物体姿态和形状特征 , 再用GAN直接生成全新的视角图片 。
Pix2NeRF包含三种类型的网络架构 , 即生成网络G , 判别网络D和编码器E 。
其中 , 生成网络G和判别网络D组成生成对抗网络GAN , 而编码器E和生成网络G用于构成自动编码器:
用糊图也能生成新视角照片?
文章图片

文章图片

首先 , 自动编码器可以通过无监督学习 , 来获取输入图像的隐藏特征 , 包括物体姿态和物体形状 , 并利用学习到的特征重建出原始的数据;
然后 , 再利用GAN来通过姿态和形状数据 , 重构出与原来的物体形状不同的新视图 。
这里研究人员采用了一种叫做π-GAN的结构 , 生成3D视角照片的效果相比其他类型的GAN更好(作者们还对比了采用HoloGAN的一篇论文):
用糊图也能生成新视角照片?
文章图片

文章图片

那么 , 这样“混搭”出来的AI模型 , 效果究竟如何?
用糊图也能生成新视角
作者们先是进行了一系列的消融实验 , 以验证不同的训练方法和模型架构 , 是否真能提升Pix2NeRF的效果 。
例如 , 针对模型去掉GAN逆映射、自动编码器 , 或不采用warmup针对学习率进行预热等 , 再尝试生成新视角的人脸:
用糊图也能生成新视角照片?
文章图片

文章图片

其中 , GAN逆映射(inversion)的目的是将给定的图像反转回预先训练的GAN模型的潜在空间中 , 以便生成器从反转代码中重建图像 。
实验显示 , 除了完整模型(fullmodel)以外 , 去掉各种方法的模型 , 生成人脸的效果都不够好 。
随后 , 作者们又将生成照片的效果与其他生成新视图的AI模型进行了对比 。
结果表明 , 虽然Pix2NeRF在ShapeNet-SRN的生成效果上没有PixelNeRF好 , 但效果也比较接近:
用糊图也能生成新视角照片?
文章图片

文章图片

而在CelebA和CARLA数据集上 , Pix2NeRF基本都取得了最好的效果 。