设为首页 - 加入收藏 宜昌站长网 (http://www.0717zz.com)- 国内知名站长资讯网站,提供最新最全的站长资讯,创业经验,网站建设等!
热搜: 谈谈 模式 使用 为什么
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

Adobe实习生的智能景深算法:2D图片3秒变立体,变换视角流畅自然

发布时间:2019-09-18 09:12 所属栏目:[经验] 来源:鱼羊 栗子 乾明
导读:本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 你离礁石越来越近,仿佛还有一秒就要触礁了。 不过这张动图,并不是从人类拍摄的视频里截下来的。 是Adobe放出的新魔法,把这张静态照片变出了立体感,整个过程只需要2-3秒: 这种特效

? ?Adobe实习生的智能景深算法:2D图片3秒变立体,变换视角流畅自然

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

你离礁石越来越近,仿佛还有一秒就要触礁了。

不过这张动图,并不是从人类拍摄的视频里截下来的。

是Adobe放出的新魔法,把这张静态照片变出了立体感,整个过程只需要2-3秒:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

这种特效处理,常常用于纪录片等视频的后期制作,名为Ken Burns Effect。

原本只是2D缩放 (下图左) ,通过对静止图像的平移和缩放,来产生视差,从而实现动画效果。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

但Adobe这种3D效果 (上图右) ,不仅有平移和缩放,还有视角转换,给人更沉浸的体验。

想要实现,需要专业的设计师在Photoshop等软件中花费数个小时时间。

而且制作成本也很高,一张照片大概需要40-50美元 (约合人民币280-350元) 。

Adobe也登上了ACM主办的计算机图形学顶级期刊TOG,引发了大量讨论与关注。不乏有激动的网友给出“三连”:

Incredible. Amazing. Holy shit.

完全不是简单的缩放

透视原理决定,前景比背景的移动/缩放更剧烈。

所以,前景移动的时候,背景除了移动,也要跟着修复。

AI的背景修复十分自然,手法明显比“前辈”更高超:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

△形状有点奇怪的教堂

并且,不论背景简单复杂,AI都不怕。

比如,走到沙发跟前,沙发就挡住了后面窗户外的草地:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

背景的色彩和结构都很复杂,但AI并没有蒙蔽。

如果你觉得,刚才的视角变化只是由远及近,不够复杂。那就看一眼这古老的台阶吧:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

仿佛你打算走上台阶,所以正在朝着它的方向,慢慢转身。

除此之外,一条古老的走廊,你置身其中,好像正在从上仰的视角,变得平视前方。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

当然,不只是风景,人像也可以处理。

比如,草地上的新娘,可以远观,也可以近距离欣赏:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

就像开头说的那样,所有的变换,只靠一张静态图来完成。

这自然不是普通的缩放可以做到的:

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

△ 左为普通缩放,右为3D魔法

所以,究竟是怎样的技术做到的?

三步定边界,结合上下文感知

用单个图像合成逼真的相机移动的效果要解决两个基本问题。

首先,要设置一个新的相机位置,合成新视图,并且需要准确地恢复原始视图的场景几何结构。

其次,根据预测的场景几何结构,要将新视图在连续的时间线上合成,这就涉及到去遮挡这样的图像修复手段。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

研究人员们用了三个神经网络来构建处理框架。

用以训练的数据集是用计算机生成的。研究人员从UE4 Marketplace2收集了32种虚拟环境,用虚拟摄像机在32个环境中捕获了134041个场景,包括室内场景,城市场景,乡村场景和自然场景。每个场景包含4个视图,每个视图都包含分辨率为512×512像素的颜色、深度和法线贴图。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

指定一张高分辨率图像,首先根据其低分辨率版本估计粗糙深度。这一步由VGG-19来实现,根据VGG-19提取的语义信息指导深度估计网络的训练,并用具有ground truth的计算机合成数据集进行监督。如此,就能提取出原始图像的深度图。

第二个网络,是Mask R-CNN。为了避免语义失真,平行于VGG-19,用Mask R-CNN对输入的高分辨率图像进行分割,而后用分割的结果来对深度图进行调整,以确保图中的每个对象都映射到一个相干平面上。

最后,利用深度细化网络,参考输入的高分辨率图像,对提取出的粗糙深度进行上采样,确保深度边界更加精确。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

之所以要采用深度细化网络,是因为裁切对象的过程中,对象很可能在边界处被撕开。

有了从输入图像获得的点云和深度图(注:点云指通过3D扫描得到的物品外观表面的点数据集合),就可以渲染连续的新视图了。

不过,这里又会出现一个新的问题——当虚拟摄像机向前移动的时候,对象本身会产生裂隙(下图中高塔右侧像被网格切开了)。

2D图片3秒变立体,变换视角流畅自然:Adobe实习生成果登顶级期刊

为了解决这个问题,研究人员采取了结合上下文感知修复的方法。

结合上下文信息能够产生更高质量的合成视图。上下文信息划定了相应像素在输入图像中位置的邻域,因此点云中的每个点都可以利用上下文信息来进行扩展。

具体而言,第一步,是进行颜色和深度图像修复,以从不完整的渲染中恢复出完整的新视图,其中每个像素都包含颜色,深度和上下文信息。

而后,利用图像修复深度,将图像修复颜色映射到点云中新的色调点。

【免责声明】本站内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

网友评论
推荐文章