学习V4L2应用程序框架时要注意的事项

嵌入式技术

1333人已加入

描述

  V4L2是V4L的升级版本,linux下视频设备程序提供了一套接口规范。

  常用的结构体在内核目录include/linux/videodev2.h中定义

  struct v4l2_requestbuffers //申请帧缓冲,对应命令VIDIOC_REQBUFS

  struct v4l2_capability //视频设备的功能,对应命令VIDIOC_QUERYCAP

  struct v4l2_input //视频输入信息,对应命令VIDIOC_ENUMINPUT

  struct v4l2_standard //视频的制式,比如PAL,NTSC,对应命令VIDIOC_ENUMSTD

  struct v4l2_format //帧的格式,对应命令VIDIOC_G_FMT、VIDIOC_S_FMT等

  struct v4l2_buffer //驱动中的一帧图像缓存,对应命令VIDIOC_QUERYBUF

  struct v4l2_crop //视频信号矩形边框

  v4l2_std_id //视频制式

  V4L2采用流水线的方式,操作更简单直观,基本遵循打开视频设备、设置格式、处理数据、关闭设备,更多的具体操作通过ioctl函数来实现。

  1.打开视频设备

  在V4L2中,视频设备被看做一个文件。使用open函数打开这个设备:

  // 用非阻塞模式打开摄像头设备

  int cameraFd;

  cameraFd = open(“/dev/video0”, O_RDWR | O_NONBLOCK, 0);

  // 如果用阻塞模式打开摄像头设备,上述代码变为:

  //cameraFd = open(“/dev/video0”, O_RDWR, 0);

  应用程序能够使用阻塞模式或非阻塞模式打开视频设备,如果使用非阻塞模式调用视频设备,即使尚未捕获到信息,驱动依旧会把缓存(DQBUFF)里的东西返回给应用程序。

  2. 设定属性及采集方式

  打开视频设备后,可以设置该视频设备的属性,例如裁剪、缩放等。这一步是可选的。在Linux编程中,一般使用ioctl函数来对设备的I/O通道进行管理:

  int ioctl (int __fd, unsigned long int __request, 。../*args*/) ;

  在进行V4L2开发中,常用的命令标志符如下(some are optional):

  • VIDIOC_REQBUFS:分配内存

  • VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址

  • VIDIOC_QUERYCAP:查询驱动功能

  • VIDIOC_ENUM_FMT:获取当前驱动支持的视频格式

  • VIDIOC_S_FMT:设置当前驱动的频捕获格式

  • VIDIOC_G_FMT:读取当前驱动的频捕获格式

  • VIDIOC_TRY_FMT:验证当前驱动的显示格式

  • VIDIOC_CROPCAP:查询驱动的修剪能力

  • VIDIOC_S_CROP:设置视频信号的边框

  • VIDIOC_G_CROP:读取视频信号的边框

  • VIDIOC_QBUF:把数据从缓存中读取出来

  • VIDIOC_DQBUF:把数据放回缓存队列

  • VIDIOC_STREAMON:开始视频显示函数

  • VIDIOC_STREAMOFF:结束视频显示函数

  • VIDIOC_QUERYSTD:检查当前视频设备支持的标准,例如PAL或NTSC。

  2.1检查当前视频设备支持的标准

  在亚洲,一般使用PAL(720X576)制式的摄像头,而欧洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD来检测:

  v4l2_std_id std;

  do {

  ret = ioctl(fd, VIDIOC_QUERYSTD, &std);

  } while (ret == -1 && errno == EAGAIN);

  switch (std) {

  case V4L2_STD_NTSC:

  //……

  case V4L2_STD_PAL:

  //……

  }

  2.2 设置视频捕获格式

  当检测完视频设备支持的标准后,还需要设定视频捕获格式,结构如下:

  struct v4l2_format fmt;

  memset ( &fmt, 0, sizeof(fmt) );

  fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  fmt.fmt.pix.width = 720;

  fmt.fmt.pix.height = 576;

  fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

  fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;

  if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) {

  return -1;

  }

  v4l2_format结构如下:

  struct v4l2_format {

  enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

  union

  {

  struct v4l2_pix_format pix;

  struct v4l2_window win;

  struct v4l2_vbi_format vbi;

  __u8 raw_data[200];

  } fmt;

  };

  struct v4l2_pix_format {

  __u32 width; // 宽,必须是16的倍数

  __u32 height; // 高,必须是16的倍数

  __u32 pixelformat; // 视频数据存储类型,例如是YUV4:2:2还是RGB

  enum v4l2_field field;

  __u32 bytesperline;

  __u32 sizeimage;

  enum v4l2_colorspace colorspace;

  __u32 priv;

  };

  2.3 分配内存

  接下来可以为视频捕获分配内存:

  struct v4l2_requestbuffers req;

  req.count = BUFFER_COUNT;

  req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  req.memory = V4L2_MEMORY_MMAP;

  if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) {

  return -1;

  }

  v4l2_requestbuffers 结构如下:

  struct v4l2_requestbuffers {

  u32 count;//缓存数量,也就是说在缓存队列里保持多少张照片

  enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

  enum v4l2_memory memory;//V4L2_MEMORY_MMAP或V4L2_MEMORY_USERPTR

  u32 reserved[2];

  };

  2.4 获取并记录缓存的物理空间

  使用VIDIOC_REQBUFS,我们获取了req.count个缓存,下一步通过调用VIDIOC_QUERYBUF命令来获取这些缓存的地址,然后使用mmap函数转换成应用程序中的绝对地址,最后把这段缓存放入缓存队列:

  typedef struct VideoBuffer {

  void *start;

  size_t length;

  } VideoBuffer;

  v4l2_buffer 结构如下:

  struct v4l2_buffer {

  __u32 index;

  enum v4l2_buf_type type;

  __u32 bytesused;

  __u32 flags;

  enum v4l2_field field;

  struct timeval timestamp;

  struct v4l2_timecode timecode;

  __u32 sequence;

  /* memory location */

  enum v4l2_memory memory;

  union {

  __u32 offset;

  unsigned long userptr;

  } m;

  __u32 length;

  __u32 input;

  __u32 reserved;

  };

  VideoBuffer* buffers = calloc( req.count, sizeof(*buffers) );

  struct v4l2_buffer buf;

  for (numBufs = 0; numBufs 《 req.count; numBufs++)

  {

  memset( &buf, 0, sizeof(buf) );

  buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  buf.memory = V4L2_MEMORY_MMAP;

  buf.index = numBufs;

  // 读取缓存

  if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) {

  return -1;

  }

  buffers[numBufs].length = buf.length;

  // 转换成相对地址

  buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE,

  MAP_SHARED,fd, buf.m.offset);

  if (buffers[numBufs].start == MAP_FAILED) {

  return -1;

  }

  // 放入缓存队列

  if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) {

  return -1;

  }

  }

  2.5 视频采集方式

  操作系统一般把系统使用的内存划分成用户空间和内核空间,分别由应用程序管理和操作系统管理。应用程序可以直接访问内存的地址,而内核空间存放的是供内核访问的代码和数据,用户不能直接访问。v4l2捕获的数据,最初是存放在内核空间的,这意味着用户不能直接访问该段内存,必须通过某些手段来转换地址。

  一共有三种视频采集方式:使用read/write方式;内存映射方式和用户指针模式。

  read、write方式,在用户空间和内核空间不断拷贝数据,占用了大量用户内存空间,效率不高。

  内存映射方式:把设备里的内存映射到应用程序中的内存控件,直接处理设备内存,这是一种有效的方式。上面的mmap函数就是使用这种方式。

  用户指针模式:内存片段由应用程序自己分配。这点需要在v4l2_requestbuffers里将memory字段设置成V4L2_MEMORY_USERPTR。

  2.6 处理采集数据

  V4L2有一个数据缓存,存放req.count数量的缓存数据。数据缓存采用FIFO的方式,当应用程序调用缓存数据时,缓存队列将最先采集到的视频数据缓存送出,并重新采集一张视频数据。这个过程需要用到两个ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:

  struct v4l2_buffer buf;

  memset(&buf,0,sizeof(buf));

  buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;

  buf.memory=V4L2_MEMORY_MMAP;

  buf.index=0;

  //读取缓存

  if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)

  {

  return -1;

  }

  //…………视频处理算法

  //重新放入缓存队列

  if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {

  return -1;

  }

  3. 关闭视频设备

  使用close函数关闭一个视频设备

  close(cameraFd)

  如果使用mmap,最后还需要使用munmap方法。

  下面是damo程序(经过实际验证,修改了网上的例程的错误)

  -----------------------------------------------------------------------------------------------------------

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #include

  #define CAMERA_DEVICE “/dev/video0”

  #define CAPTURE_FILE “frame.jpg”

  #define VIDEO_WIDTH 640

  #define VIDEO_HEIGHT 480

  #define VIDEO_FORMAT V4L2_PIX_FMT_YUYV

  #define BUFFER_COUNT 4

  typedef struct VideoBuffer {

  void *start;

  size_t length;

  } VideoBuffer;

  int main()

  {

  int i, ret;

  // 打开设备

  int fd;

  fd = open(CAMERA_DEVICE, O_RDWR, 0);

  if (fd 《 0) {

  printf(“Open %s failed\n”, CAMERA_DEVICE);

  return -1;

  }

  // 获取驱动信息

  struct v4l2_capability cap;

  ret = ioctl(fd, VIDIOC_QUERYCAP, &cap);

  if (ret 《 0) {

  printf(“VIDIOC_QUERYCAP failed (%d)\n”, ret);

  return ret;

  }

  // Print capability infomations

  printf(“Capability Informations:\n”);

  printf(“ driver: %s\n”, cap.driver);

  printf(“ card: %s\n”, cap.card);

  printf(“ bus_info: %s\n”, cap.bus_info);

  printf(“ version: %08X\n”, cap.version);

  printf(“ capabilities: %08X\n”, cap.capabilities);

  // 设置视频格式

  struct v4l2_format fmt;

  memset(&fmt, 0, sizeof(fmt));

  fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  fmt.fmt.pix.width = VIDEO_WIDTH;

  fmt.fmt.pix.height = VIDEO_HEIGHT;

  fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

  fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;

  ret = ioctl(fd, VIDIOC_S_FMT, &fmt);

  if (ret 《 0) {

  printf(“VIDIOC_S_FMT failed (%d)\n”, ret);

  return ret;

  }

  // 获取视频格式

  ret = ioctl(fd, VIDIOC_G_FMT, &fmt);

  if (ret 《 0) {

  printf(“VIDIOC_G_FMT failed (%d)\n”, ret);

  return ret;

  }

  // Print Stream Format

  printf(“Stream Format Informations:\n”);

  printf(“ type: %d\n”, fmt.type);

  printf(“ width: %d\n”, fmt.fmt.pix.width);

  printf(“ height: %d\n”, fmt.fmt.pix.height);

  char fmtstr[8];

  memset(fmtstr, 0, 8);

  memcpy(fmtstr, &fmt.fmt.pix.pixelformat, 4);

  printf(“ pixelformat: %s\n”, fmtstr);

  printf(“ field: %d\n”, fmt.fmt.pix.field);

  printf(“ bytesperline: %d\n”, fmt.fmt.pix.bytesperline);

  printf(“ sizeimage: %d\n”, fmt.fmt.pix.sizeimage);

  printf(“ colorspace: %d\n”, fmt.fmt.pix.colorspace);

  printf(“ priv: %d\n”, fmt.fmt.pix.priv);

  printf(“ raw_date: %s\n”, fmt.fmt.raw_data);

  // 请求分配内存

  struct v4l2_requestbuffers reqbuf;

  reqbuf.count = BUFFER_COUNT;

  reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  reqbuf.memory = V4L2_MEMORY_MMAP;

  ret = ioctl(fd , VIDIOC_REQBUFS, &reqbuf);

  if(ret 《 0) {

  printf(“VIDIOC_REQBUFS failed (%d)\n”, ret);

  return ret;

  }

  // 获取空间

  VideoBuffer* buffers = calloc( reqbuf.count, sizeof(*buffers) );

  struct v4l2_buffer buf;

  for (i = 0; i 《 reqbuf.count; i++)

  {

  buf.index = i;

  buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  buf.memory = V4L2_MEMORY_MMAP;

  ret = ioctl(fd , VIDIOC_QUERYBUF, &buf);

  if(ret 《 0) {

  printf(“VIDIOC_QUERYBUF (%d) failed (%d)\n”, i, ret);

  return ret;

  }

  // mmap buffer

  framebuf[i].length = buf.length;

  framebuf[i].start = (char *) mmap(0, buf.length, PROT_READ|PROT_WRITE, MAP_SHARED, fd, buf.m.offset);

  if (framebuf[i].start == MAP_FAILED) {

  printf(“mmap (%d) failed: %s\n”, i, strerror(errno));

  return -1;

  }

  // Queen buffer

  ret = ioctl(fd , VIDIOC_QBUF, &buf);

  if (ret 《 0) {

  printf(“VIDIOC_QBUF (%d) failed (%d)\n”, i, ret);

  return -1;

  }

  printf(“Frame buffer %d: address=0x%x, length=%d\n”, i, (unsigned int)framebuf[i].start, framebuf[i].length);

  }

  // 开始录制

  enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

  ret = ioctl(fd, VIDIOC_STREAMON, &type);

  if (ret 《 0) {

  printf(“VIDIOC_STREAMON failed (%d)\n”, ret);

  return ret;

  }

  // Get frame

  ret = ioctl(fd, VIDIOC_DQBUF, &buf);

  if (ret 《 0) {

  printf(“VIDIOC_DQBUF failed (%d)\n”, ret);

  return ret;

  }

  // Process the frame

  FILE *fp = fopen(CAPTURE_FILE, “wb”);

  if (fp 《 0) {

  printf(“open frame data file failed\n”);

  return -1;

  }

  fwrite(framebuf[buf.index].start, 1, buf.length, fp);

  fclose(fp);

  printf(“Capture one frame saved in %s\n”, CAPTURE_FILE);

  // Re-queen buffer

  ret = ioctl(fd, VIDIOC_QBUF, &buf);

  if (ret 《 0) {

  printf(“VIDIOC_QBUF failed (%d)\n”, ret);

  return ret;

  }

  // Release the resource

  for (i=0; i《 4; i++)

  {

  munmap(framebuf[i].start, framebuf[i].length);

  }

  close(fd);

  printf(“Camera test Done.\n”);

  return 0;

  }

  -----------------------------------------------------------------------------------------------------------

  附件:

  void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset);

  int munmap(void *start, size_t length);

  参数说明:

  ——start:映射区的开始地址。

  ——length:映射区的长度。

  ——prot:期望的内存保护标志,不能与文件的打开模式冲突。是以下的某个值,可以通过or运算合理地组合在一起

  —PROT_EXEC //页内容可以被执行

  —PROT_READ //页内容可以被读取

  —PROT_WRITE //页可以被写入

  —PROT_NONE //页不可访问

  ——flags:指定映射对象的类型,映射选项和映射页是否可以共享。它的值可以是一个或者多个以下位的组合体

  —MAP_FIXED //使用指定的映射起始地址,如果由start和len参数指定的内存区重叠于现存的映射空间,重叠部分将会被丢弃。如果指定的起始地址不可用,操作将会失败。并且起始地址必须落在页的边界上。

  —MAP_SHARED //与其它所有映射这个对象的进程共享映射空间。对共享区的写入,相当于输出到文件。直到msync()或者munmap()被调用,文件实际上不会被更新。

  —MAP_PRIVATE //建立一个写入时拷贝的私有映射。内存区域的写入不会影响到原文件。这个标志和以上标志是互斥的,只能使用其中一个。

  —MAP_DENYWRITE //这个标志被忽略。

  —MAP_EXECUTABLE //同上

  —MAP_NORESERVE //不要为这个映射保留交换空间。当交换空间被保留,对映射区修改的可能会得到保证。当交换空间不被保留,同时内存不足,对映射区的修改会引起段违例信号。

  —MAP_LOCKED //锁定映射区的页面,从而防止页面被交换出内存。

  —MAP_GROWSDOWN //用于堆栈,告诉内核VM系统,映射区可以向下扩展。

  —MAP_ANONYMOUS //匿名映射,映射区不与任何文件关联。

  —MAP_ANON //MAP_ANONYMOUS的别称,不再被使用。

  —MAP_FILE //兼容标志,被忽略。

  —MAP_32BIT //将映射区放在进程地址空间的低2GB,MAP_FIXED指定时会被忽略。当前这个标志只在x86-64平台上得到支持。

  —MAP_POPULATE //为文件映射通过预读的方式准备好页表。随后对映射区的访问不会被页违例阻塞。

  —MAP_NONBLOCK //仅和MAP_POPULATE一起使用时才有意义。不执行预读,只为已存在于内存中的页面建立页表入口。

  ——fd:有效的文件描述词。如果MAP_ANONYMOUS被设定,为了兼容问题,其值应为-1。

  ——offset:被映射对象内容的起点。

  返回值:

  成功执行时,mmap()返回被映射区的指针,munmap()返回0。

  失败时,mmap()返回MAP_FAILED[其值为(void *)-1],munmap返回-1。errno被设为以下的某个值。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分