上周刚结束的UCCVR 系列沙龙-北京站,是以VR视频拍摄和制作经验分享为主题的纯甄技术干货分享,在现场,我们邀请到了业内知名厂商强氧科技的360°全景工程师丁荣带来一线的VR全景直播和录播的经验分享!(文末有片~)

全景录播,多镜头如何拼接?

全景拍摄都是采用多镜头拼接而成,当一个移动物体穿过两个或者二个以上镜头会出现错位,这是因为两个镜头同时拍摄一个移动当中的物体时会产生相对差距,两个镜头的视差导致。

录播的时候,做过缝合的人员会遇到的问题是,一个人穿过两个镜头会被多多少少切掉一点。如果绕着镜头去转一圈,在他安全距离以后去转一圈还是一样的。超过安全距离5米到10米左右很明显被切的会少一点。

被切的原理是怎么来的呢,做过全景拼接的朋友可能会有所研究。当一个移动物体去穿过两个镜头的时候。两个镜头的传感器。每个机器录制的内容是不一样的。或出现一个错位的感觉。这就延伸了全景里面的词叫做视差。

建议解决方案:

一个移动物体穿过两个镜头,如何去避免被裁切的问题,建议如下方式可以做尝试:

  1. 摄影机的前端去解决。一个人穿过2个镜头,多多、少少都会有视差。就是拼硬件看哪个摄影机去同步录制的时候,能达到视差尽量的小。
  2. 就是通过后期软件在两个镜头之间打一些不管是遮罩也好,还是通过飞边在时间线上去做一些同步,再去做缝合。
  3. 还有一个是使用多目摄影机,多镜头的相机就是想尽量去避免这个视差。镜头越多重合部分区域会越多。后期做缝合的时候就会有所避免。但是后期的工作量就变得更大了(内部进行自动缝合的除外)
庞大的素材量如何管理?

使用多目全景摄影机,那么我们的素材量是非常之大,如果存储4K分辨率的素材,每分钟差不多1G以上的素材量,用4目6目9目10目或者更多摄影机,天呐!我们的素材量?拷贝时间?备份素材?这是一项多目痛苦的事情。

建议解决方案:建立合理的数据管理与存储流程,和传统视频一样,需要全景视频中DIT(数字影像工程师Digital Imaging Technician)角色的加入,就跟传统视频一样,每次去做直播或者录播时去对素材进行管理。

全景设备如何检验和监看?

在录制全景的时候会碰到一些问题,镜头盖没打开?参数设置的不一致?到后期拼的时候就是缝合不了?有时候缝合出来的颜色偏差也很大,曝光,有些镜头是实焦有些是虚焦。这些都该怎么处理,都是很现实常见的问题。

建议解决方案:定制标准的测试、熟悉摄影机的参数、并做到监看设备,加上实时缝合,最终对数据有详细的记录。

全景拍摄在前期就最好去避免这些问题,相比起传统的导播单机位的录制,所要走的标准化更多。在拍摄之前要对所有的摄影机要进行统一的设置。现在全景拍摄更像是属于盲拍,有没有哪个镜头没有在录制,我们完全不知道!目前有的解决方式是通过手机APP也可以看,但是这种监看就需要一个一个手动切换,但就算是发现了有问题了也没法及时处理。在做这种离线拍摄的时候,加上一些无线图传或者是离线的监看,对整体的画面会有一个把控,就会更好一点。

全景如何移动拍摄?

由于是360度无死角拍摄,原本就没有什么镜头语言,这是不是我们在看监控而不是VR全景视频?

建议解决方案:对于拍摄遇到的困境,可能需要更多方面的深思,全景相机的拍摄方式一般都是放在那或者上无人机或者遥控车,这种方式的镜头太过单一,怎么样才能把这个像传统机位做的更加灵活一点呢?比如说运动,我们为什么要让这个机器运动?我们拍摄的内容是什么跟运动会有什么关系?而不是说让人前后左右动一下就是所谓的运动!或者是跟我们被拍摄物或者活动有一些关系。既然动就要动的有目的性!用观看者的角度去体验镜头为什么要动!

现场灯光怎么藏?

360度无死角拍摄,有灯就穿帮。没有灯光虚拟的场景体验会好吗?

建议解决方案:全景的灯光比传统的要求还要高,传统机位如果没有灯光的话,问题很大。包括全景也是。灯光不藏起来,全都裸露在外边属于穿帮。不打灯光的话,由于弱光,一些死角的地方拍摄的效果肯定不会很好。直播目前处理不了因为现场的灯光太乱,录播怎么办呢?大家看那种旅游景点的视频图片偏多,为什么?因为都是大白天景色特别好。在低调度的背景下怎么去避免?

全景的后期剪辑该如何处理?

全景的剪辑该怎么去做?还有就是进入后期如何调色?

建议解决方案:两个不同的场景,切一下,做一个过场特效,像那种扇形的,或者交叉性的那种看起来可能好一点。

还有就是颜色,灯光打了,但是每一个镜头出来的效果是不一致的。进到后期就需要调色

全景视频进入到调色里面是否能变成一致?这些可能都还需要不断的尝试才能最终得到完美的解决方案。

 

VR 全景直播

摄影机输出基本都是Micro HDMI,输出要接工作站的HDMI采集卡是需要转接的,转接线的选择也是需要讲究的,需要选择质量好的线或者转接头,如果不是1.4以上HDMI线的话对现场干扰的影响还是很大。

信号进入到工作站怎么实时缝合,目前推荐的是Kolor的软件,它的模式一种是实时的拼接,还有一个就是做好工程导入之前的拼接,一般的话还是选择第二种导入工程。

不用工程的话就例如现在的环境,去做拼接的话总是有问题。有些地方拼不上有些地方是歪的。包括颜色都不是太好。去套工程这种去做拼接的话相对于实时缝合的话,效果要好很多,实时信号进入到工作站之后软件有个截图功能,可以截取8~10个镜头的画面,然后再经过照片的缝合软件Giga去做缝合,缝合好之后是可以选择输出格式。缝合好之后要做信号的输出,以往板卡的输出都是基于16:9,也就是一个传统影视影像的一个画面比例输出。而全景需要做到2:1的画面输出,才能到我们特殊播放器中形成一个无死角的视频。

播控系统有3点需要处理。

  1. 实时信号过来只有视频没有音频。播控系统过来后还需要做一个音频的叠加,把现场的声音接进来,视频信号接进来做一个混合。
  2. 传送过来的画面是16:9,我们输出到编码器中也是16:9,通过播控系统做一个裁切。把原有的16:9的画面的上下黑边裁掉。全景直播,现在有2种方式,基本都是上面有天但正下方打上自家Logo的模式。
大规模实现VR 全景直播,仍有待解决

传统的在线观看视频能够达到10万人左右,但目前全景视频的在线观看还不到1万人,需要实现大规模的VR全景直播,还需要解决4K高分辨率高码流的处理、需要解决带宽的限制以及CDN加速等。

关注UCCVR,关注精彩的VR游戏开发、VR影视制作及行业内容干货分享!