FFmpeg入门系列教程(二)

FFmpeg 常用数据结构讲解
1)AVFormatContext 封装格式上下文结构体,也是同龄全局的结构体,保存了视频文件封装格式相关信息

    * iformat: 输入视频的AVInputFormat

    * nb_steams: 输入视频的AVSteam个数

    * steams:输入视频的AVSteam[]数组

    * duration: 输入视频的时长(以微秒为单位)

    * bit_rate: 输入视频的码率

2)AVInputFormat 每种封装格式(例如FLV MKV MP4 AVI)对应的一个结构体

    * name: 封装格式名称

    * long_name: 封装格式的长名称

    * extensions: 封装格式的扩展名

    * id: 封装格式ID

3)AVStream 视频文件中每个视频(音频)流对应一个该结构体

    * id: 序号

    * codec: 该流对应的AVCodecContext

    * time_base: 该流的时基(用来为视频或者音频设定播放位置的)
  1. AVCodecContex 编码器上下文结构体,保存了视频(音频)编解码相关信息

    * codec: 编解码器的AVCodec
    
    * thread_count: 线程数(编码时可以自己设置)
    
    * width,height: 图像的宽高(只针对视频)
    
    * pix_fmt: 像素格式(只针对视频)
    
    * sample_rate: 采样率(只针对音频)
    
    * channels: 声道数(只针对音频)
    
    * sample_fmt: 采样格式(只针对音频)
    
    *codec_type:编解码器的类型(视频,音频...)
    

4)AVCodec 每种视频(音频)编解码器(例如H.264解码器)对应的一个改结构体

    *name:编解码器的名字,比较短

    *long_name:编解码器的名字,全称,比较长

    *type:指明了类型,是视频,音频,还是字幕

    * id: 编解码器ID

5)AVPacket 存储一帧压缩编码后的数据

    * pts: 本帧数据显示的时间,比较关键的数据,在做seek和播放进度的时候都要用到它,pts只是一个数量,对应于AVStream->time_base,要根据time_base才能转换为具体的时间,音频和视频一般有不同的time_base,所以在做音视频同步一定要做转换,不能直接拿pts做。

    * dts: 基本属性等同于pts,区别就是dts对应的是解码时间不是显示时间,解码后会放入缓冲,比如h264,如果有b帧,则要先解码后面的b帧,再解码之前的帧。

    * data: 压缩编码数据(h.264数据)

    * size: 压缩编码数据大小

    * stream_index: 帧数据所属流的索引,用来区分音频,视频,和字幕数据。

6)AVFrame 存储一帧解码后像素(采样)数据

     *data[AV_NUM_DATA_POINTERS]:指针数组,存放YUV数据的地方。如图所示,一般占用前3个指针,分别指向Y,U,V数据。 对于packed格式的数据(例如RGB24),会存到data[0]里面。 对于planar格式的数据(例如YUV420P),则会分开成data[0],data[1],data[2]…(YUV420P中data[0]存Y,data[1]存U,data[2]存V)。

    *linesize[AV_NUM_DATA_POINTERS]:图像各个分量数据在此结构体中的的宽度。注意这并不是图像的宽度。在此例子中图像的尺寸为672X272,而亮度分量的宽度为704,应该是图像宽度经过64对齐后的结果。

    *extended_data:指向了图像数据。

    *width:图像的宽。

    *height:图像的宽高。

    *nb_samples:此帧音频的点数。

    *format:像素类型(视频),样点类型(音频)。

猜你喜欢

转载自blog.csdn.net/qq_23350817/article/details/107775056