时间码≠时间:为云时代重新发明SMPTE ST-12(六)

影视制作

视角问题

到目前为止,我们所讨论的一切都是个问题,这当然没错,但在你使用的是一个视频源和一个音频源时,这个问题显然是可处理的。

但当你加入更多视角时,一切都会变得更麻烦起来。用不同视角来解释同一时刻可能会得到很不同的结果。然而采集技术的视角非常有限——视频、音频或数据——这就是通常会有多台设备同时采集某一时刻内尽可能多的信息和视角的原因。

在典型的拍摄采集设置中,我们会有视频和音频。针对同一时刻,其实有着两种互相独立的视角。虽然它们描述的是同一时刻,但结果却完全不同。在这个示例中,时间码可以很好地将它们组合在一起。如果它们共享一个时间码值而且是“同步的”,那么重叠的时间码会告诉我们它们描述的是相同的时刻。在这种情况下,一种视角是视频,一种视角则是音频。

然而,可以预见的是,随着我们添加更多的视角——比如说添加一或两台摄影机,情况会变得更加复杂。我们可以将所有这些视角的时间码同步在一起,但现在我们面临的问题是几组媒体不仅共享重叠的时间码标签,而且还共享数据类型。此时要认出不同的帧会困难得多。

你添加的摄影机越多,问题就变得越复杂。

在后期制作过程中,我们现在有了几套重复的帧标签。标签本身并没有告诉我们一个给定的帧是来自A机还是B机。

这里没有固有的联系。相反,我们最终使用一种额外技术,以独特的方式识别某一帧。对于视频,这通常是通过在元数据中嵌入卷、带或ClipID来完成的,但不能保证给定的摄影机会嵌入或支持这些元数据——事实上,你甚至没法保证摄影机会给予它的文件独特的命名。许多专业级电影摄影机都具备这个功能,但这并不是板上钉钉的事。

最后,随着媒体在后期制作过程中不断迭代,元数据可能会丢失,转而必须以单独文件进行传输——通常是ALE或EDL文件。

虽然拍摄中最明确的不同视角的例子是视频和音频,但公平地说,动作、遥测、布光、剧本注释等等都构成了针对这些时刻的其他视角。它们都通过各自独特的视角来描述同一段内容,都为完整的影像增添了内涵。


出处:R. Loughlin & D. Schweickart | Frame.io

编译:Charlie | 盖雅翻译小组


系列阅读:时间码≠时间:为云时代重新发明SMPTE ST-12

views
影视制作
QC系列文之混叠与摩尔纹

〖更新至4-6〗混叠效应非常普遍,本文将探讨这种错误的技术背景及原因,并聚焦于如何使用Silverstack来确定来源,以及如何预防。

影视制作
视效指导与DP的关系

〖更新至1-6〗在这种数字工作流中,“拍摄”和“后期”之间的区别变得日益模糊,机内捕捉的画面,与后期完成的内容之间的区别经常被混淆。

影视制作
用数字调色:何时使用色彩示波器(以及何时不使用)

色彩示波器能帮助你评估图像的客观元素——例如亮度、色彩饱和度——从而帮助你更快地做出主观创意决策。