新闻中心

EEPW首页>嵌入式系统>设计应用> 基于嵌入式Linux的3G无线视频终端的设计与实现

基于嵌入式Linux的3G无线视频终端的设计与实现

作者: 时间:2011-08-01 来源:网络 收藏

2)直接采用CMOS摄像头作为采集装置 该采集模块在硬件上S3C2440带有CMOS摄像头接口,在开发板上通过称为CAMERA的接口引出,并且带有camera控制器,在本系统中使用了OmniVision公司的OV9650摄像头。S3C2440支持ITU-R BT601/656格式的数字图像输入,支持2个通道的DMA,Preview通道和Codec通道,参见图4。

本文引用地址://m.amcfsurvey.com/article/150415.htm

f.jpg


Preview通道可以将YCbCr4:2:2格式的图像转换为RGB(16bit或24bit)格式的数据,并存放于为PreviewDMA分配的内存中,最大分辨率为640×480。主要用于本地液晶屏显示,Codec通道可以输出YCbCr4:2:0或YCbCr4:2:2格式到为Codec DMA分配的内存中。最大分辨率为4 096x4 096,主要用于图像的编解码处理。在本系统中使用的是Codec通道。
采集模块的采用的是V4L2(Video forTwo)V4L2,它是下开发视频采集设备驱动程序的一套规范,该规范采用分层的方法给驱动程序的开发提供了清晰的模型和一致的接口,并且正对视频设备的应用程序编程也提供了一系列接口函数。其中应用程序处于最上层,V4L2处于中间层,而实际的硬件设备则处于下层,其本身包括两层驱动结构,上层是videodev模块,下层为V4L2驱动程序。video-dev通过V4L2驱动程序的成员函数来调用V4L2驱动。在V4L2驱动的驱动程序初始化过程中,它首先枚举它将要处理的系统中的设备,为每个设备填充struct v412_device结构,并且将指向该结构的指针传递给v412_register_device()函数,该函数调用v4L2_deviee结构体中的初始化函数对设备进行初始化。当v412驱动程序初始化完成后,v412通过传递一个包含驱动程序成员函数,次设备号以及相关信息的结构给videod-ev,从而完成它将要处理设备在videodev的注册工作,当应用程序通过系统调用触发了某个驱动程序时,控制权首先传递给videodev中的函数,videodev将应用程序传递的文件或i节点结构指针转换为相应的v412结构指针,并调用v412中的处理函数。以本系统以OV9650摄像头为例,其驱动框架如图5所示。

g.jpg


视频采集过程如下,应用程序首先打开视频设备文件,摄像头在系统中对应的设备文件为/dev/camera,通过系统调用“open(“/ dev/camera”,O_RDWR)”函数打开该设备,获得一个文件描述符fd,利用ioctl(fd,VIDIOCGPICT,capability)函数获取摄像头的相关信息,例如设备名称、支持的最大最小分辨率、信号源信息等,填充在结构体video_capability中,通过调用ioctl(fd,VIDIOCGPICT,pict-ure)获取图像的相关信息如采集图像的对比度、亮度、调色板等属性,并且填充在video_picture结构体中,在获取这类信息后,可根据实际需要来对其重新赋值,具体做法是将需要设置的值赋给相应结构体,然后通过系统调用ioctl(fd,VIDIOCSPICT,)函数写入设备。在图像获取方式上使用mmap()系统调用来内存映射达到各进程共享内层的目的,利用共享内存通信的一个显而易见的好处是效率高,因为进程可以直接读写内存,而不需要任何数据的拷贝。使用mmap方式获取图像数据,需要首先设置图像帧的缓冲区结构,即struct video_mmap,如每次采集帧数,图像高度、宽度,图像调色板格式等等。然后调用ioctl(fd,VIDIOCMCAPTURE,grab_buf)启动捕获过程。调用iotcl(fd,VI-DIOCSYNC,frame)等待采集完成,若该函数成功返回则表示采集完毕,采集到的图像将放在通过mmap()映射的内存区域内,读取该内存数据即可获得图像数据,其中frame为当前截取的帧数,V4L2允许一次采集多帧数据,可通过设置grab buf.frame来。调用close(fd)函数关闭设备文件,终止图像采集。
2.2 视频数据处理模块
由视频采集模块获取的视频图像需要通过网络来进行传输,而从摄像头直接采集的未经压缩的数据量非常大,为了在不影响图像质量的前提下提高传输效率,本系统中对原始获得的视频图像进行了压缩编码。由于MPEG-4是专门为播放流式媒体的高质量视频而的,并且MPEG-4标准以其高压缩比、高质量、低传输率已经成为目前网络多媒体传输的主要格式和标准。它可利用很窄的带宽,通过帧重建技术压缩和传输数据,以求使得用最少的数据获得最佳的图像质量并且能够保存接近于DVD画质的小体积视频文件。在本系统中选用开源的Xvidcore作为视频压缩模块的核心算法。Xvidcore是一个高效而且便于移植的编码软件。它不仅支持Simple Profile和Advanced Profile,还支持I/P Frames B-Frames Interlacing和GMC,以钻石和方块模式来进行PMVFast和EPZS运行估计,是目前比较流行的MPEG-4编码软件。Xvidcore源码可从网上下载免费获得,目前最新版为xvidcore-1.2.2,它提供了一系列的库函数及接口函数供应用程序使用。但针对系统平台,要使用该库需要将其移植到系统中。移植过程如下:
解压源代码:tar-zxvf xvidcore-1.2.2.tar.gz;在使用前需要对xvidcore-1.2.2进行交叉编译,步骤如下:
1)设置环境变量:export=“xvidcore当前所在目录”;
2)进入/build/generic目录;
3)生成Makefrle:/configure-host=local hostbuild=arm-linux-gcc;//指定交叉编译工具以便进行交叉编译;
4)编译源代码:make。
将交叉编译生成的库文件libxvidcore.so.*拷贝到交叉编译器工作目录lib子目录中。完成编码库的移植工作。
以上对个独立模块进行了介绍,在软件上对系统进行了整体设计,将各个模块有机的组合在一起,并充分考虑了系统的可扩展性。
主要结构体如下:
h.jpg

linux操作系统文章专题:linux操作系统详解(linux不再难懂)


评论


相关推荐

技术专区

关闭