视频的格式有哪些(如何选择视频记录格式?)

时间:2024-10-02 08:12:19



一个完整的视频记录格式包括:编码/压缩方式、色深/色彩取样/码率、分辨率/帧率例如:

- XAVC HS(H.265 LongGOP)、10bit 4:2:0 200Mbps、4K 50p

- H.265 ALL-I、10bit 4:2:2 1000Mbps、DCI 4K 50p

- 12bit N-RAW、1390Mbps、8.3K 24p

- ProRes 422、1254Mbps、DCI 4K 60p

同时,这些选项通常还会影响到视频录制的画幅(裁切系数)和采样方式


编码/压缩方式

H.264(AVC)和H.265(HEVC)是最常见的编码格式。
- H.264应用范围最广,具有良好的兼容性。

- H.265具有比H.264更高压缩比(相同码率下更高画质、相同画质下更小体积),支持超过4K分辨率,大多为10bit色深。


针对H.264和H.265,不少专业视频设备还会提供压缩方式选项:

- All-Intra即帧内压缩,每一帧都包含完整的图像信息,对后期处理更友好,但文件量会比较大。

- LongGOP即帧间压缩,只有一些帧(参考帧)包含完整的图像信息,其他帧则记录了与参考帧的差异,从而大幅减少视频文件的体积。

* 索尼微单的XAVC S是H.264 LongGOP,XAVC HS是H.265 LongGOP,XAVC S-I则是H.264 All-Intra。


同时,越来越多的相机开始支持ProRes内录和RAW内录。

- ProRes是苹果开发的编码格式,目前最常见的是ProRes 422 HQ、ProRes 422 和ProRes 422 LT,码率比例依次为100%、约66%、约46%。ProRes对于后期处理非常友好,回放和剪辑都很流畅。


- RAW:和照片一样,RAW视频保存了传感器输出的原始信号,允许我们在后期调节白平衡、ISO、色彩空间等元数据。最常见的RAW格式有佳能RAW/Cinema RAW、尼康N-RAW、ProRes RAW、BMD BRAW等。

* BMD在机内进行了部分去马赛克操作,所以一些观点认为BRAW不是真的RAW。


All-Intra和LongGOP对于画质的影响并不大。包括前面提到的ProRes在内,这些编码都是在存储容量与后期效率中做出取舍 —— 通常文件尺寸大的后期效率高(比如H.264 All-Intra、ProRes),后期效率低的文件尺寸小(比如H.265 LongGOP)。绝大多数朋友没必要苛求All-Intra压缩,拥有2020年及之后电脑的朋友也没必要将H.265视作“洪水猛兽”(但要关注色彩采样方式,下面会讲)


尼康Z 8 / Z 9、佳能EOS R5C只能在RAW视频格式下记录8K 50p/60p视频。而在一些相机上,小尺寸RAW视频的码率并不比相同分辨率、帧率的All-Intra编码高很多(以C70为例,DCI 4K、60p下,Cinema RAW Light LT约645Mbps、XF-AVC Intra约600Mbps)。考虑到RAW格式具有更大的后期空间,推荐大家尝试下RAW视频处理流程。


色深/色彩取样/码率

色深代表了亮度信息的层次,8bit对应0-255级,10bit对应0-1023级。一些相机需要选择10bit色深格式才能录制HDR视频(或者在选择HDR视频时强制切换到10bit)

4:2:0、4:2:2、4:4:4指色彩取样的比例:

- 4:2:0表示亮度占4个单位,红色色差和蓝色色差各占1个单位,即4个像素拥有不同亮度但共享相同色度;

- 4:2:2表示亮度占4个单位,红色色差和蓝色色差各占2个单位,即4个像素拥有不同的亮度且每两个像素共享1个色度;

- 4:4:4表示亮度占4个单位,红色色差和蓝色色差各占4个单位,即每个像素都有不同的亮度和色度。

色彩取样精度越高,文件占用空间越大;反之亦然。


虽然4:2:0相比4:2:2损失了更多的色彩信息,但只有深度后期或绿幕抠图时才会体现出明显差异。但在选择H.265编码时,4:2:0和4:2:2在不同电脑上的流畅度差别非常大 —— H.265 10bit 4:2:2目前只有英特尔Xe核显/ARC独显与苹果M系列芯片支持硬件编解码。只能使用软件编解码时,不仅会消耗非常多的CPU资源,流畅度也会大打折扣。

▲ 使用达芬奇回放视频左边:10bit 4:2:0时,NVIDIA显卡占用率高;右边:10bit 4:2:2时,Intel核显占用率高


最后,在相同的编码/压缩、色深/色彩取样下,码率越高则视频质量越高、硬盘占用空间也越大。我们工作室最常用的录制格式是H.265 LongGOP 10bit 4:2:0(以50p/60p为例,富士X-H2S上选择360Mbps,索尼ILCE-1上选择XAVC HS、200Mbps)。佳能微单在选择LOG时会强制使用H.265 10bit 4:2:2记录,这些素材就会用Mac Studio来处理。


分辨率/帧率

分辨率和帧率相信大家不难理解,前者表示空间分辨率,后者表示时间分辨率。通常我们所说的4K分辨率指3840×2160、8K分辨率指7680×4320,而DCI 4K和DCI 8K分别对应4096×2160、8192×4320。支持DCI规格分辨率并不存在技术难度,只是产品等级和厂商理念差别。

100p或更高帧率有“升格”和“慢动作”两种情况。前者以正常速度记录,也和24p-60p一样包含声音,可以在后期剪辑时选择当做常速视频来用,还是重新设置帧率变成慢动作;后者则是直接记录成慢动作视频,通常不包含声音。

扩展阅读:裁切与采样

我们的理想自然是所有分辨率/帧率都能使用全像素记录,即有丰富的细节,又能有较低的果冻效应。但现实情况时,受限于传感器的读取速度、处理器的读取能力、存储卡速度以及功耗,绝大多数相机都无法在所有分辨率/帧率下提供相同水平的画质。
这里有一个关键名词叫“
滚动快门时间”。传感器是逐行读取的,而“滚动快门时间”就是从传感器工作范围的第一行到最后一行的读取时间。时间越短,果冻效应越小。而要实现每秒60帧记录,就意味着每帧的读取时间不能超过16.66ms —— 由于自动对焦也需要一些帧,所以实际时间还要更短一些。

▲ 富士X-H2S在不同分辨率/帧率下的滚动快门(来自B站UP:86号片场)


缩短滚动快门时间的方法有很多,例如:

- 降低ADC采样位数,比如从14bit降至12bit甚至11bit,这也是一些相机提高照片连拍速度的方法(或者说选择14bit格式会降低连拍速度的原因)

- 丢弃一些行,即通常说的“隔行采样”或“跳采”。读取的行数变少了,滚动快门时间就短了,但代价就是分辨率下降、信噪比下降,且易出现摩尔纹和伪色。

- 缩小使用范围,这意味着传感器有效尺寸变小、等效系数变大、视角变窄。

- 合并一些行,即像素合并。以传感器上2×2合并为例,可以减少一半的行数,也会降低处理器的压力。

对于没有明确介绍各个记录格式下采样方式的相机,我们可以结合有效像素数量、滚动快门时间、分辨率做出推测。

例如:富士X-S20是一款具有6240×4160像素的相机

- CineD测试OpenGate片门全开时的滚动快门约为24.1ms;

- 3840×2160 25p滚动快门约为20.3ms,根据16:9拍照像素是6240×3512,3512÷4160×24.1≈20.34,此时应该是6.2K超采样;

- 3840×2160 50p滚动快门约为16.1ms,根据支持5232×2944、最高60p的HDMI RAW外录,2944÷4160×24.1≈17,此时应该是5.2K超采样。