视角问题
到目前为止,我们所讨论的一切都是个问题,这当然没错,但在你使用的是一个视频源和一个音频源时,这个问题显然是可处理的。
但当你加入更多视角时,一切都会变得更麻烦起来。用不同视角来解释同一时刻可能会得到很不同的结果。然而采集技术的视角非常有限——视频、音频或数据——这就是通常会有多台设备同时采集某一时刻内尽可能多的信息和视角的原因。
在典型的拍摄采集设置中,我们会有视频和音频。针对同一时刻,其实有着两种互相独立的视角。虽然它们描述的是同一时刻,但结果却完全不同。在这个示例中,时间码可以很好地将它们组合在一起。如果它们共享一个时间码值而且是“同步的”,那么重叠的时间码会告诉我们它们描述的是相同的时刻。在这种情况下,一种视角是视频,一种视角则是音频。
然而,可以预见的是,随着我们添加更多的视角——比如说添加一或两台摄影机,情况会变得更加复杂。我们可以将所有这些视角的时间码同步在一起,但现在我们面临的问题是几组媒体不仅共享重叠的时间码标签,而且还共享数据类型。此时要认出不同的帧会困难得多。
你添加的摄影机越多,问题就变得越复杂。
在后期制作过程中,我们现在有了几套重复的帧标签。标签本身并没有告诉我们一个给定的帧是来自A机还是B机。
这里没有固有的联系。相反,我们最终使用一种额外技术,以独特的方式识别某一帧。对于视频,这通常是通过在元数据中嵌入卷、带或ClipID来完成的,但不能保证给定的摄影机会嵌入或支持这些元数据——事实上,你甚至没法保证摄影机会给予它的文件独特的命名。许多专业级电影摄影机都具备这个功能,但这并不是板上钉钉的事。
最后,随着媒体在后期制作过程中不断迭代,元数据可能会丢失,转而必须以单独文件进行传输——通常是ALE或EDL文件。
虽然拍摄中最明确的不同视角的例子是视频和音频,但公平地说,动作、遥测、布光、剧本注释等等都构成了针对这些时刻的其他视角。它们都通过各自独特的视角来描述同一段内容,都为完整的影像增添了内涵。
出处:R. Loughlin & D. Schweickart | Frame.io
编译:Charlie | 盖雅翻译小组