MPlayer软件研究篇(一)──输出驱动

    linux下面最好用的播放器当属mplayer了。一些多媒体的嵌入式产品都有用到mplayer。有的“方案“提供商,也会

在mplayer上面开发,增加自己的解码器和输出驱动,然后提供下它的代理公司。究其原因还是mplayer开放的架构,

很适合去些二次开发的工作,你可以增加自己的解码模块,输出驱动模块,视频滤镜等而不会破坏mplayer的整体架构。

     目前有一个需求,用mplayer来作为另一个软件的后端视频播放器。

     mplayer自身有提供一个slave模式作为后台进程,而不去拦截窗口事件。-wid可以为mplayer指定输出窗口。

可以这样来调用mplayer. mplayer -wid  窗口ID  -slave。

     xwininfo可以得到窗口ID的信息──先启动xwininfo,然后再其它窗口点一下,窗口ID就会被show出来。

     但是,这个方法只能作些简单应用,不能再播放窗口上面叠加其它UI内容,特别是前端软件如果使用了openGL,

那些一些效果就出不来了。为了然mplayer更好地融入前端软件,我决定给mplayer编写一个视频驱动,让mplayer

通过共享内存的方式把解码后的数据传输给前端软件。前端软件再对这些视频数据来做处理。

      mplayer的视频输出驱动源文件全部在libvo/目录下,vo_xx.c里面对应着各种视频驱动,以插件的形式被组织起来。

const vo_functions_t* const video_out_drivers[] ,定义着所有的视频驱动,

mpcodecs_config_vo这个函数选择合适的视频驱动和解码的输出视频格式,

       out_fmt=sh->codec->outfmt[i];  ---得到解码器的输出格式
    if(out_fmt==(unsigned int)0xFFFFFFFF) continue;
    flags=vf->query_format(vf,out_fmt);  ---将调用vo_xx.c的query_format函数。

    ..

     j=i; vo_flags=flags; if(flags&VFCAP_CSP_SUPPORTED_BY_HW) break;

    如果有硬件支持那是相当地好,立刻返回。这样解码器和输出配上对了。

    如果配不上呢?那也不用发愁,mplayer会调用vf_scale这个视频滤镜来进行格式转换。

      if(j<0){
    // TODO: no match - we should use conversion...
    if(strcmp(vf->info->name,"scale") && palette!=-1){

     如此,这般,mplayer 就配上了解码器和视频输出。

     新增加视频驱动过程如下

     1)首先定义插件的接口。

        LIBVO_EXTERN这个宏就是用来做这个事情地。这个宏定义了一系列的vo接口。只需要简单地

       LIBVO_EXTERN(xx)就可以了。当然还需要定义这么一个结构vo_info_t info  来给出vo_xx驱动的信息。

     2)实现LIBVO_EXTERN里面定义的函数接口,大部分可以从其它的vo_xx.c里面抄过来。

        query_format 这个函数很重要,mplayer初始化输出vo的时候,会依次调用各个vo驱动的query_format,

来判断该vo驱动是否支持,从而选择合适的vo驱动。

      3)为前端软件,选择合适的视频数据格式。视频数据格式有两大类,RGB和YUV,其中各自都有好多的变种,如果

前端软件使用openGl来做视频的render,最好让mplayer输出的视频数据限定为YV12格式。这个会不会很麻烦呢??

放心吧,mplayer已经为我们准备好了。 -vf format=fmt=yv12,这个参数就是让mplayer选定视频数据格式的。

是真牛鼻而不是吹牛比吧!

      4)主战场。

         我们的主战场在draw_image 和 draw_slice这两个个函数里面,当mplayer需要输出一帧数据的时候,

它会分别调用这两个函数,根据不同的视频文件。当然,一次只调用一个。

         在进入主战场前,先要做一件事情,分配共享内存。

         static void alocate_share_memory(int stride[],int h)
        {

        
        uint32_t chroma_h = h >> 1;
        size_t size = stride[0]*h+stride[1]*chroma_h+stride[2]*chroma_h;
        shmm_xbmc = shmat(
        shmget(ftok("/etc/group",0),   ---指定一个文件linux会生成一个key值
           size,
           IPC_CREAT | S_IRUSR | S_IWUSR),
         NULL,
        SHM_RND
         );

    
         }

       接下来,当然就是copy数据了。

      static void copy_YV12_to_shmm(uint8_t *src[], int stride[], int w, int h, int x, int y)
{
    uint8_t* dst = (uint8_t *)shmm_xbmc;
    uint32_t chroma_h = image_height >> 1;
  
    fast_memcpy(dst,src[0],stride[0]*h);
    dst += stride[0]*h;
    fast_memcpy(dst,src[1],stride[1]*chroma_h);
    dst += stride[1]*chroma_h;
    fast_memcpy(dst,src[2],stride[2]*chroma_h);

    ...

    OK,这个就搞掂了。收工!!!哦,还有同步机制没做了。

    这这里我们可以使用fifo来进行同步。

    fifo也是个好东西,一端以只读方式打开,另一段以只写的方式打开。则双方分别会在open 和 read ,wirte的时候阻塞,直到另一端执行执行相应的动作,我们把视频数据的相关信息,如h,w,bpp,等信息,用fifo来传送,

这样就可以让两个进程同步了。

    draw_slice 与draw_image的区别是,draw_slice是把一帧数据分成多个分组,一次传送一小块数据,用y和h这

两个参数来决定数据块在一帧数据里面的位置。

   static void copy_slice_to_shmm(uint8_t *src[], int stride[], int w, int h, int x, int y){

    uint8_t* dst = (uint8_t *)shmm_xbmc+y*stride[0];
    uint32_t chroma_h = image_height >> 1;

    fast_memcpy(dst,src[0],stride[0]*h);

    y = y/2;
    h = h/2;
    dst = (uint8_t *)shmm_xbmc + stride[0]*image_height + y*stride[1];
    fast_memcpy(dst,src[1],stride[1]*h);

    dst = (uint8_t *)shmm_xbmc + stride[0]*image_height + stride[1]*chroma_h + y*stride[2];
    fast_memcpy(dst,src[2],stride[2]*h);

在draw_slice里面要做个判断

       if(y+h >= image_height){   ---  一帧数据准备就续
    //printf("joni_debug send data to xxx/n");
         wirte_fifo ---写如视频信息到fifo,通知前端软件。
    }

   其中 fast_memcpy根据不同的平台来定义。一般等同于  memcpy

    这样mplayer,就只负责解码不再显示数据了。

    前端软件调用mplayer时, 需要传入参数 mplayer -vo vo_xx  -slave -quiet  --input file=就可以了!

    不知道说清楚没有,也不知道有没有人看。

猜你喜欢

转载自blog.csdn.net/kartorz/article/details/6037671