V4L2应用程序框架

V4L2是V4L的升级版本,linux下视频设备程序提供了一套接口规范。

常用的结构体在内核目录include/linux/videodev2.h中定义

struct v4l2_requestbuffers  //申请帧缓冲,对应命令VIDIOC_REQBUFS
struct v4l2_capability      //视频设备的功能,对应命令VIDIOC_QUERYCAP
struct v4l2_input           //视频输入信息,对应命令VIDIOC_ENUMINPUT
struct v4l2_standard        //视频的制式,比如PAL,NTSC,对应命令VIDIOC_ENUMSTD
struct v4l2_format          //帧的格式,对应命令VIDIOC_G_FMT、VIDIOC_S_FMT等
struct v4l2_buffer          //驱动中的一帧图像缓存,对应命令VIDIOC_QUERYBUF
struct v4l2_crop            //视频信号矩形边框
v4l2_std_id                 //视频制式

V4L2采用流水线的方式,操作更简单直观,基本遵循打开视频设备、设置格式、处理数据、关闭设备,更多的具体操作通过ioctl函数来实现。

1.打开视频设备
在V4L2中,视频设备被看做一个文件。使用open函数打开这个设备:
// 用非阻塞模式打开摄像头设备
int cameraFd;
cameraFd = open("/dev/video0", O_RDWR | O_NONBLOCK, 0);
// 如果用阻塞模式打开摄像头设备,上述代码变为:
//cameraFd = open("/dev/video0", O_RDWR, 0);
应用程序能够使用阻塞模式或非阻塞模式打开视频设备,如果使用非阻塞模式调用视频设备,即使尚未捕获到信息,驱动依旧会把缓存(DQBUFF)里的东西返回给应用程序。

2. 设定属性及采集方式
打开视频设备后,可以设置该视频设备的属性,例如裁剪、缩放等。这一步是可选的。在Linux编程中,一般使用ioctl函数来对设备的I/O通道进行管理:
 int ioctl (int __fd, unsigned long int __request, .../*args*/) ;
在进行V4L2开发中,常用的命令标志符如下(some are optional): 
•    VIDIOC_REQBUFS:分配内存 
•    VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址 
•    VIDIOC_QUERYCAP:查询驱动功能 
•    VIDIOC_ENUM_FMT:获取当前驱动支持的视频格式 
•    VIDIOC_S_FMT:设置当前驱动的频捕获格式 
•    VIDIOC_G_FMT:读取当前驱动的频捕获格式 
•    VIDIOC_TRY_FMT:验证当前驱动的显示格式 
•    VIDIOC_CROPCAP:查询驱动的修剪能力 
•    VIDIOC_S_CROP:设置视频信号的边框 
•    VIDIOC_G_CROP:读取视频信号的边框 
•    VIDIOC_QBUF:把数据从缓存中读取出来 
•    VIDIOC_DQBUF:把数据放回缓存队列 
•    VIDIOC_STREAMON:开始视频显示函数 
•    VIDIOC_STREAMOFF:结束视频显示函数 
•    VIDIOC_QUERYSTD:检查当前视频设备支持的标准,例如PAL或NTSC。 
2.1检查当前视频设备支持的标准
在亚洲,一般使用PAL(720X576)制式的摄像头,而欧洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD来检测:
v4l2_std_id std;
do {
        ret = ioctl(fd, VIDIOC_QUERYSTD, &std);
} while (ret == -1 && errno == EAGAIN);
switch (std) {
    case V4L2_STD_NTSC:
        //……
    case V4L2_STD_PAL:
        //……
}
2.2 设置视频捕获格式
当检测完视频设备支持的标准后,还需要设定视频捕获格式,结构如下:
struct v4l2_format fmt;
memset ( &fmt, 0, sizeof(fmt) );
fmt.type                = V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.width       = 720;
fmt.fmt.pix.height      = 576;
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
fmt.fmt.pix.field       = V4L2_FIELD_INTERLACED;
if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) {
  return -1;
}

v4l2_format结构如下:
struct v4l2_format {
      enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE
      union
      {
          struct v4l2_pix_format   pix;  
          struct v4l2_window        win;  
          struct v4l2_vbi_format   vbi;  
          __u8    raw_data[200];          
      } fmt;
};
struct v4l2_pix_format {
    __u32                   width;          // 宽,必须是16的倍数
    __u32                   height;         // 高,必须是16的倍数
    __u32                   pixelformat;   // 视频数据存储类型,例如是YUV4:2:2还是RGB
    enum v4l2_field         field;
    __u32                   bytesperline;
    __u32                   sizeimage;
    enum v4l2_colorspace    colorspace;
    __u32                   priv;
};
2.3 分配内存
接下来可以为视频捕获分配内存:
struct v4l2_requestbuffers  req;

req.count  = BUFFER_COUNT;
req.type   = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;

if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) {
      return -1;
}

v4l2_requestbuffers 结构如下:
struct v4l2_requestbuffers {
   u32                count;//缓存数量,也就是说在缓存队列里保持多少张照片
   enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE
   enum v4l2_memory   memory;//V4L2_MEMORY_MMAP或V4L2_MEMORY_USERPTR
   u32                reserved[2];
};
2.4 获取并记录缓存的物理空间
使用VIDIOC_REQBUFS,我们获取了req.count个缓存,下一步通过调用VIDIOC_QUERYBUF命令来获取这些缓存的地址,然后使用mmap函数转换成应用程序中的绝对地址,最后把这段缓存放入缓存队列:
 
typedef struct VideoBuffer {
    void   *start;
    size_t  length;
} VideoBuffer;

v4l2_buffer     结构如下:
struct v4l2_buffer {
        __u32                 index;
        enum v4l2_buf_type    type;
        __u32                 bytesused;
        __u32                 flags;
        enum v4l2_field       field;
        struct timeval        timestamp;
        struct v4l2_timecode  timecode;
        __u32                 sequence;
        /* memory location */
        enum v4l2_memory      memory;
        union {
                __u32            offset;
                unsigned long  userptr;
        } m;
        __u32                   length;
        __u32                   input;
        __u32                   reserved;
};
VideoBuffer*         buffers = calloc( req.count, sizeof(*buffers) );
struct v4l2_buffer  buf;

for (numBufs = 0; numBufs < req.count; numBufs++) 
{
    memset( &buf, 0, sizeof(buf) );
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    buf.index = numBufs;
    // 读取缓存
    if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) {
        return -1;
    }

    buffers[numBufs].length = buf.length;
    // 转换成相对地址
    buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE,
                                        MAP_SHARED,fd, buf.m.offset);

    if (buffers[numBufs].start == MAP_FAILED) {
        return -1;
    }

    // 放入缓存队列
    if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) {
        return -1;
    }
}
2.5 视频采集方式
操作系统一般把系统使用的内存划分成用户空间和内核空间,分别由应用程序管理和操作系统管理。应用程序可以直接访问内存的地址,而内核空间存放的是供内核访问的代码和数据,用户不能直接访问。v4l2捕获的数据,最初是存放在内核空间的,这意味着用户不能直接访问该段内存,必须通过某些手段来转换地址。
一共有三种视频采集方式:使用read/write方式;内存映射方式和用户指针模式。
read、write方式,在用户空间和内核空间不断拷贝数据,占用了大量用户内存空间,效率不高。
内存映射方式:把设备里的内存映射到应用程序中的内存控件,直接处理设备内存,这是一种有效的方式。上面的mmap函数就是使用这种方式。
用户指针模式:内存片段由应用程序自己分配。这点需要在v4l2_requestbuffers里将memory字段设置成V4L2_MEMORY_USERPTR。
2.6 处理采集数据
V4L2有一个数据缓存,存放req.count数量的缓存数据。数据缓存采用FIFO的方式,当应用程序调用缓存数据时,缓存队列将最先采集到的视频数据缓存送出,并重新采集一张视频数据。这个过程需要用到两个ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:
struct v4l2_buffer buf;
memset(&buf,0,sizeof(buf));
buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory=V4L2_MEMORY_MMAP;
buf.index=0;
//读取缓存
if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)
{
    return -1;
}
//…………视频处理算法
//重新放入缓存队列
if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {
    return -1;
}

3. 关闭视频设备
使用close函数关闭一个视频设备
close(cameraFd)
如果使用mmap,最后还需要使用munmap方法。

下面是damo程序(经过实际验证,修改了网上的例程的错误)
-----------------------------------------------------------------------------------------------------------
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <assert.h>
#include <getopt.h>           
#include <fcntl.h>            
#include <unistd.h>
#include <errno.h>
#include <malloc.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/time.h>
#include <sys/mman.h>
#include <sys/ioctl.h>

#include <asm/types.h>        
#include <linux/videodev2.h>

#define CAMERA_DEVICE "/dev/video0"
#define CAPTURE_FILE "frame.jpg"

#define VIDEO_WIDTH 640
#define VIDEO_HEIGHT 480
#define VIDEO_FORMAT V4L2_PIX_FMT_YUYV
#define BUFFER_COUNT 4

typedef struct VideoBuffer {
    void   *start;
    size_t  length;
} VideoBuffer;

int main()
{
    int i, ret;

    // 打开设备
    int fd;
    fd = open(CAMERA_DEVICE, O_RDWR, 0);
    if (fd < 0) {
        printf("Open %s failed\n", CAMERA_DEVICE);
        return -1;
    }

    // 获取驱动信息
    struct v4l2_capability cap;
    ret = ioctl(fd, VIDIOC_QUERYCAP, &cap);
    if (ret < 0) {
        printf("VIDIOC_QUERYCAP failed (%d)\n", ret);
        return ret;
    }
    // Print capability infomations
    printf("Capability Informations:\n");
    printf(" driver: %s\n", cap.driver);
    printf(" card: %s\n", cap.card);
    printf(" bus_info: %s\n", cap.bus_info);
    printf(" version: %08X\n", cap.version);
    printf(" capabilities: %08X\n", cap.capabilities);

    // 设置视频格式
    struct v4l2_format fmt;
    memset(&fmt, 0, sizeof(fmt));
    fmt.type                = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    fmt.fmt.pix.width       = VIDEO_WIDTH;
    fmt.fmt.pix.height      = VIDEO_HEIGHT;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
    fmt.fmt.pix.field       = V4L2_FIELD_INTERLACED;
    ret = ioctl(fd, VIDIOC_S_FMT, &fmt);
    if (ret < 0) {
        printf("VIDIOC_S_FMT failed (%d)\n", ret);
        return ret;
    }

    // 获取视频格式
    ret = ioctl(fd, VIDIOC_G_FMT, &fmt);
    if (ret < 0) {
        printf("VIDIOC_G_FMT failed (%d)\n", ret);
        return ret;
    }
    // Print Stream Format
    printf("Stream Format Informations:\n");
    printf(" type: %d\n", fmt.type);
    printf(" width: %d\n", fmt.fmt.pix.width);
    printf(" height: %d\n", fmt.fmt.pix.height);
    char fmtstr[8];
    memset(fmtstr, 0, 8);
    memcpy(fmtstr, &fmt.fmt.pix.pixelformat, 4);
    printf(" pixelformat: %s\n", fmtstr);
    printf(" field: %d\n", fmt.fmt.pix.field);
    printf(" bytesperline: %d\n", fmt.fmt.pix.bytesperline);
    printf(" sizeimage: %d\n", fmt.fmt.pix.sizeimage);
    printf(" colorspace: %d\n", fmt.fmt.pix.colorspace);
    printf(" priv: %d\n", fmt.fmt.pix.priv);
    printf(" raw_date: %s\n", fmt.fmt.raw_data);

    // 请求分配内存
    struct v4l2_requestbuffers reqbuf;
    
    reqbuf.count = BUFFER_COUNT;
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    reqbuf.memory = V4L2_MEMORY_MMAP;
    
    ret = ioctl(fd , VIDIOC_REQBUFS, &reqbuf);
    if(ret < 0) {
        printf("VIDIOC_REQBUFS failed (%d)\n", ret);
        return ret;
    }

    // 获取空间
    VideoBuffer*  buffers = calloc( reqbuf.count, sizeof(*buffers) );
    struct v4l2_buffer buf;

    for (i = 0; i < reqbuf.count; i++) 
    {
        buf.index = i;
        buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        buf.memory = V4L2_MEMORY_MMAP;
        ret = ioctl(fd , VIDIOC_QUERYBUF, &buf);
        if(ret < 0) {
            printf("VIDIOC_QUERYBUF (%d) failed (%d)\n", i, ret);
            return ret;
        }

        // mmap buffer
        framebuf[i].length = buf.length;
        framebuf[i].start = (char *) mmap(0, buf.length, PROT_READ|PROT_WRITE, MAP_SHARED, fd, buf.m.offset);
        if (framebuf[i].start == MAP_FAILED) {
            printf("mmap (%d) failed: %s\n", i, strerror(errno));
            return -1;
        }
    
        // Queen buffer
        ret = ioctl(fd , VIDIOC_QBUF, &buf);
        if (ret < 0) {
            printf("VIDIOC_QBUF (%d) failed (%d)\n", i, ret);
            return -1;
        }

        printf("Frame buffer %d: address=0x%x, length=%d\n", i, (unsigned int)framebuf[i].start, framebuf[i].length);
    }

    // 开始录制
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    ret = ioctl(fd, VIDIOC_STREAMON, &type);
    if (ret < 0) {
        printf("VIDIOC_STREAMON failed (%d)\n", ret);
        return ret;
    }

    // Get frame
    ret = ioctl(fd, VIDIOC_DQBUF, &buf);
    if (ret < 0) {
        printf("VIDIOC_DQBUF failed (%d)\n", ret);
        return ret;
    }

    // Process the frame
    FILE *fp = fopen(CAPTURE_FILE, "wb");
    if (fp < 0) {
        printf("open frame data file failed\n");
        return -1;
    }
    fwrite(framebuf[buf.index].start, 1, buf.length, fp);
    fclose(fp);
    printf("Capture one frame saved in %s\n", CAPTURE_FILE);

    // Re-queen buffer
    ret = ioctl(fd, VIDIOC_QBUF, &buf);
    if (ret < 0) {
        printf("VIDIOC_QBUF failed (%d)\n", ret);
        return ret;
    }

    // Release the resource
    for (i=0; i< 4; i++) 
    {
        munmap(framebuf[i].start, framebuf[i].length);
    }

    close(fd);
    printf("Camera test Done.\n");
    return 0;
}
-----------------------------------------------------------------------------------------------------------

附件:
void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset);
int munmap(void *start, size_t length);
参数说明:
——start:映射区的开始地址。
——length:映射区的长度。
——prot:期望的内存保护标志,不能与文件的打开模式冲突。是以下的某个值,可以通过or运算合理地组合在一起
      —PROT_EXEC //页内容可以被执行
      —PROT_READ //页内容可以被读取
      —PROT_WRITE //页可以被写入
        —PROT_NONE //页不可访问
——flags:指定映射对象的类型,映射选项和映射页是否可以共享。它的值可以是一个或者多个以下位的组合体
     —MAP_FIXED //使用指定的映射起始地址,如果由start和len参数指定的内存区重叠于现存的映射空间,重叠部分将会被丢弃。如果指定的起始地址不可用,操作将会失败。并且起始地址必须落在页的边界上。
     —MAP_SHARED //与其它所有映射这个对象的进程共享映射空间。对共享区的写入,相当于输出到文件。直到msync()或者munmap()被调用,文件实际上不会被更新。
     —MAP_PRIVATE //建立一个写入时拷贝的私有映射。内存区域的写入不会影响到原文件。这个标志和以上标志是互斥的,只能使用其中一个。
     —MAP_DENYWRITE //这个标志被忽略。
     —MAP_EXECUTABLE //同上
     —MAP_NORESERVE //不要为这个映射保留交换空间。当交换空间被保留,对映射区修改的可能会得到保证。当交换空间不被保留,同时内存不足,对映射区的修改会引起段违例信号。
     —MAP_LOCKED //锁定映射区的页面,从而防止页面被交换出内存。
     —MAP_GROWSDOWN //用于堆栈,告诉内核VM系统,映射区可以向下扩展。
     —MAP_ANONYMOUS //匿名映射,映射区不与任何文件关联。
     —MAP_ANON //MAP_ANONYMOUS的别称,不再被使用。
     —MAP_FILE //兼容标志,被忽略。
     —MAP_32BIT //将映射区放在进程地址空间的低2GB,MAP_FIXED指定时会被忽略。当前这个标志只在x86-64平台上得到支持。
     —MAP_POPULATE //为文件映射通过预读的方式准备好页表。随后对映射区的访问不会被页违例阻塞。
     —MAP_NONBLOCK //仅和MAP_POPULATE一起使用时才有意义。不执行预读,只为已存在于内存中的页面建立页表入口。
——fd:有效的文件描述词。如果MAP_ANONYMOUS被设定,为了兼容问题,其值应为-1。
——offset:被映射对象内容的起点。

返回值:
    成功执行时,mmap()返回被映射区的指针,munmap()返回0。
    失败时,mmap()返回MAP_FAILED[其值为(void *)-1],munmap返回-1。errno被设为以下的某个值。

时间: 2024-07-31 08:08:19

V4L2应用程序框架的相关文章

COM应用程序框架 1.2 设计方案 试验A版

本文只介绍<COM应用程序框架>的主要设计部分,更多.更详细的文档信息请参见下 载文件包中的文档和源代码. 一.设计说明 <COM应用程序框架>是把标准的Microsoft Windows多文档处理应用程序使用COM技术 来设计.所以针对多文档处理应用程序的需求,不再多写.如果您不了解请参见MSDN或者 是其它编程基础方面的书籍. <COM应用程序框架>分为两种,一种是COM多文档应用程序框架,第二种是单文档应 用程序框架.在这里我们只介绍多文档应用程序,不介绍单文档应

Symbian程序框架研究

S60应用程序的运行依赖于大量的OS组件,例如屏幕绘图和应用程序数据持久性等,可以直接使用OS的窗口服务器或者文件服务器即可. 应用程序框架由一套核心类组成,这些类是所有应用程序框架的基础.这些类组成了所有应用程序的架构,并且它们也封装了应用程序和所需OS服务器之间的相互作用. 第一层:CBase和CActive两个基类,其中CActive也是派生于CBase,而CActive又被第二层的CConEnv派生 第二层:包含两个基本组件:AppArc和CONE.AppArc代表"应用程序架构&quo

VC应用程序框架

VC应用程序框架提供的强大功能,为我们的开发提供了极大的方便,利用它可以很轻松地生成应用程序的框架.许多常用功能,例如文档的创建,文件的打开,保存等操作的大部分代码都由应用程序框架来完成.这些操作对于开发软件的用户而言是透明的.微软设计Visual C++的初衷是尽量向用户提供尽可能简单的接口,但是,正是因为应用框架的这一透明性,使VC的运行流程显得非常神秘,当涉及这些VC已经提供的功能模块的软件开发时,用户(特别是那些刚刚接触VC的)不知道什么时候该使用什么接口函数,想改变VC的一些默认操作时

应用程序框架设计(1):SW系统简介

<应用程序框架设计>是我大学毕业时(2000年)写的毕业论文.在我给公司内部作"应用程序架构"方面的讲座时,曾经作为入门级的参考资料附上.后来不知如何就流传到Internet上,不过是不完整的版本(可尝试在Google中搜索"应用程序框架设计:SW系统").回头看这篇文字,最大的感受觉得自己的文字功底是越来越退步了:-) 由于与界面库有关,大家不妨看看. 应用程序框架设计 许式伟 2000年6月 一.摘要 随着面向对象技术的发展成熟,已经出现了许多著名的

Symbian应用程序框架浅析

S60应用程序的运行依赖于大量的OS组件,例如屏幕绘图和应用程序数据持久性等,可以直接使用OS的窗口服务器或者文件服务器即可.   应用程序核心框架类 应用程序框架由一套核心类组成,这些类是所有应用程序框架的基础.这些类封装了应用程序和所需OS服务器之间的相互作用. 第一层:CBase和CActive两个基类,其中CActive也是派生于CBase,而CActive又被第二层的CConEnv派生 第二层:包含两个基本组件:AppArc和CONE.AppArc代表"应用程序架构",这些类

Seam无缝集成:为JSF定做应用程序框架

JavaServer Faces (JSF) 是用于 Java Web 应用程序的第一个标准化的用户界面框架. 而 Seam 是一个扩展 JSF 的强大的应用程序框架.在这个由三部分组成的新系列中的第一篇文章中,发现这两种框架之间的互补性.Dan Allen 介绍了 Seam 对 JSF 生命周期的增强,包括上下文状态管理. RESTful URL.Ajax remoting.适当的异常处理和约定优于配置. JSF 正开始凭借其 Java Web 标准的地位主导 Java Web 应用程序市场.

基于MVC模式的J2ME应用程序框架设计

1 J2ME应用程序框架的现状 Sun公司在1999年6月推出了J2ME(Java 2 MicroEdition,Java 2袖珍版).J2ME是专门为那些使用有限电源.有限网络连接以及有限图形用户界面能力的设备开发的,满足了消费电子和嵌入式设备开发的需要. 而7年后的今天,消费电子和嵌入式设备发展迅速.硬件设备速度越来越快,存储容量也越来越大,这也就自然带动了软件的发展.MIDP 2.0和CLDC 1.1也相继问世,各种各样的JSR也层出不穷. 硬件平台和软件平台的飞速发展自然带动了人们需求的

Android系统进程间通信Binder机制在应用程序框架层的Java接口源代码分析_Android

        在前面几篇文章中,我们详细介绍了Android系统进程间通信机制Binder的原理,并且深入分析了系统提供的Binder运行库和驱动程序的源代码.细心的读者会发现,这几篇文章分析的Binder接口都是基于C/C++语言来实现的,但是我们在编写应用程序都是基于Java语言的,那么,我们如何使用Java语言来使用系统的Binder机制来进行进程间通信呢?这就是本文要介绍的Android系统应用程序框架层的用Java语言来实现的Binder接口了.        熟悉Android系统

P2P 应用程序框架

在 P2P 计算领域方面,我们只写了一篇文章,现在已经是转变的时候了.根据 "The practice of peer-to-peer computing: Introduction and history(对等计算实践:介绍与历史)"的读者反馈意见,我认识到:读者对于使用和理解 P2P 应用程序的兴趣远比我预想的大.最初,我只把这个应用程序看成是这样一种方便的资源,可以从中提取示例,以阐明文章中所陈述的观点.结果表明,某些读者希望得到更详细的信息,因此,我将在这个月提供这方面的信息.