您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
AR/VR 正文
发私信给李诗
发送

0

详解谷歌最新光场视频,体验VR头显里的光场世界

本文作者: 李诗 2018-03-21 21:45
导语:发布多个光场视频,支持HTC Vive、Oculus Rift以及Windows MR系列头显,还介绍了其新一代光场相机

详解谷歌最新光场视频,体验VR头显里的光场世界

影像技术的发展给我们带来越来越逼真的视频体验。3D视频能让我们看到立体的影像,VR能带来360度的沉浸感。目前高端3D VR视频都说能让人身临其境,但是我们的视觉是穿越过去了,却并不是真正的“走进”虚拟世界,只是站在一个摄像机机位的旁观者。目前,很多公司都在尝试以光场拍摄来实现视频里六个自由度的运动。

详解谷歌最新光场视频,体验VR头显里的光场世界

3月15日,谷歌在Steam上线新应用《Welcome to Light Field》,发布多个光场视频,支持HTC Vive、Oculus Rift以及Windows MR系列头显。带上这些支持六个自由度运动追踪的头显,我们就可以真的在光场视频里走一走、看一看了!

我们目前已经熟悉了3D视频,VR视频,但是要理解光场视频、光场相机的拍摄原理可能还得花费一些功夫。

六个自由度的光场视频

(《Welcome to Light Field》VR体验录屏,来自Youtube)

在《Welcome to Light Field》中,用户首先会看到一些教程,谷歌花费了不少心力来解释2D、3D、光场视频的不同。例如,拍摄一个室内环境,2D只能提供平面效果,就像你在翻阅杂志。3D视频利用多个摄像头拍摄后期处理成双目视差效果,可以让你感觉到立体感,就像在看立体的模型。

详解谷歌最新光场视频,体验VR头显里的光场世界

详解谷歌最新光场视频,体验VR头显里的光场世界

而光场相机则是将光线以场的方式记录下来,使得最终能够还原场景任意位置的任意光线信息。除了双目视差以外,光场相机还能够提供运动视差(运动视差是一种深度线索,当我们运动时,会发现离我们近的物体运动得快,离我们远一点的物体运动得慢)。在谷歌光场视频中,你会感觉到视频中的虚拟物体就在你身边,你稍微移动一下位置,近处的虚拟物体的角度会有较大变化,而远处的虚拟物体变化较小,近处和远处的物体光线变化也不一样,这样你会感觉你置身于一个真实的3D场景中。

这些体验需要有支持6Dof运动追踪的头显,这样你在真实空间的运动会带来虚拟场景的实时变化,真实的运动和虚拟的运动会保持一致。

详解谷歌最新光场视频,体验VR头显里的光场世界

详解谷歌最新光场视频,体验VR头显里的光场世界

例如前面两个图片显示,观看者与桌子上的茶具的距离发生了明显的变化,说明用户改变了在光场视频里的位置和视角。而隐约可见的一条白色环线显示出可移动的范围。

《Welcome to light Field》令雷锋网编辑印象最深的例子是,谷歌用光场相机拍摄了St. Stephen Lutheran大教堂著名的彩色琉璃窗户。这扇窗户由1400块彩色玻璃组成,由知名设计师Roger Darricarrere设计。当光线穿过彩色玻璃,会在白色的教堂墙上投影出色彩斑斓的光斑,光线和色彩的变化都让人惊叹。

详解谷歌最新光场视频,体验VR头显里的光场世界

详解谷歌最新光场视频,体验VR头显里的光场世界

详解谷歌最新光场视频,体验VR头显里的光场世界

谷歌的光场视频还包括其他场景:美国艺术和工艺风格建筑的典范——Gamble House、马赛克艺术 Mosaic Tile House、航空航天博物馆等。在Gamble House中,谷歌拍摄了一对年长的夫妻拥吻的画面,他们静止不动,而光线在他们周围不断变化。

雷锋网发现,这些光场视频都是静态的场景。也就是说,如果要拍人物,需要人物保持长时间不动。谷歌是如何实现静态场景的光场视频拍摄,这个技术对行业有什么意义呢?

新一代光场相机


详解谷歌最新光场视频,体验VR头显里的光场世界

上图是谷歌展示的光场相机,可以看到,这是一个带有不少镜头,能旋转的大家伙。谷歌在博文中解释了核心技术,他们改装了一套GoPro Odyssey Jump相机平台,利用16个GoPro组成了一套弧形拍摄系统,安装在一个旋转平台上,相机旋转拍摄一周大概需要一分钟。摄像机记录下光线,然后光场渲染技术可以通过采样和插值,在球面体积内的任何地方合成场景的视图。

目前我们看到的360度全景相机、光场相机大多是一圈相机,视觉能覆盖整个360度的空间。

详解谷歌最新光场视频,体验VR头显里的光场世界

(Lytro Immerge 2.0光场相机)

北京电影学院未来影像高精尖创新中心研究员宋维涛告诉雷锋网,谷歌通过旋转摄像头的方式获取光场,不同于Lytro的光场相机在同一时间获取全空间光场信息,谷歌光场相机在同一时间只获得空间中部分的光场,通过扫描光场分块拼接最后形成全空间光场,该设计利用时间换取空间,降低系统处理光场的负担,在学术上称为时分复用。在获取光场的过程中,摄影头要旋转一周,花费1分钟的时间,因此只能拍摄静态的图像,而无法获得动态的视频。

Lytro全景光场相机不仅可以拍摄出高分辨率静态光场图像,也能拍摄动态视频,但是这就需要高效的处理器和编辑工具,Lytro目前定位在专业的应用,例如影视制作,通过后期编辑时选择场景的讲述角度,而谷歌定位于消费者市场,实时的6自由度呈现。

西顾视频CTO李文松认为:“静态6Dof场景其实之前类似Lytro、Mattetport、adobe之类的方案都可以做到。从技术上讲并不比Lytro的相机更强,但是更便宜。但目前最便宜的静态场景重建是Matterport。”

雷锋网了解到,谷歌、Lytro、Matterport的光学相机其实都是由里到外的拍摄,从相机出发去记录外部空间,即使是拍摄动态的视频,其可以记录的范围也是会限制在相机的周围。

谷歌的这款光学相机可以支持70*70cm的移动范围,相当于人迈出两步的距离。也就是说,光场视频支持用户走出大约两步路,超出这个范围,视频将会失真或者无法呈现光场效果。

而英特尔、微软目前都在尝试从外到里的拍摄方式,搭建光学摄影棚来进行拍摄。英特尔也曾以光场拍摄记录正常足球比赛,实现在观看时可以选择不同球员的位置观看比较,也可以360度重新观察一个球员的全部动作。从外到里的方式能够获得更大的可移动范围,但是其也有场地的局限性。

除了拍摄以外,光学视频的显示也值得注意。我们都知道,光场视频需要全新的视频格式。谷歌实现了光场视频拍摄、后期处理、呈现,使得我们可以用VR头显观看。谷歌称,光场视频在一个自定义数据集文件中压缩处理,Unity引擎中的插件实现的特殊渲染软件可以读取该自定义数据集。而由于目前光场视频显示格式不一直,其他大多数光场视频还处于无法直接展示的阶段。

宋维涛认为,谷歌Welcome to Light Field最大的意义在于为行业提供了一个应用的方式,向大家尤其是消费者介绍了光场的概念和体验。

谷歌一直致力于影像技术的发展,此前其推出了Jump全景VR视频平台,与Go Pro、小蚁合作开发360度3DVR 全景相机,此后与联想、小蚁推出更为简易的VR 180相机。光学相机使谷歌在这方面更进一步,但是未来的路显然还很长。

宋维涛也聊到包括光场相机在内的光场技术在未来发展。他认为:"光场获取端,即是说光场相机会朝向高分辨率高帧频方向发展,相机本身也会趋向于小型化低成本化; 光场储存处理端,光场图像和视频的编码、压缩、传输方法还有待发展,格式也需要讨论和统一; 光场呈现端,头盔显示器是其中的一种表达方式,未来的呈现方式会趋向多元化,头显本身的发展也会从目前眼前单一屏幕向光场化真实化迈进,目前以Magic Leap为代表的国内外研究机构在光场头戴式显示进行探索,这种头显可以让人眼聚焦在虚拟物体的不同深度,而不是一块显示屏上; 最后,应用方式上,谷歌Welcome to Light Field为我们提供了一个很好的范例,更好的光场应用方式还需要进一步研究探索,比如,虚拟的光场和真实世界的逼真融合以及自然的交互也会成为学界和产业界的热点。"


相关文章:

专访小蚁达声蔚:如何与谷歌合作,打造消费级3D VR相机

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:

编辑

关注AI业界、NLP、VR、AR技术与产品。采访报道、行业交流请加微信“Hanass”
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说