基于嵌入式Linux的3G無線視頻終端的設計與實現(xiàn)
2)直接采用CMOS攝像頭作為視頻采集裝置 該視頻采集模塊在硬件上S3C2440帶有CMOS攝像頭接口,在開發(fā)板上通過稱為CAMERA的接口引出,并且?guī)в衏amera控制器,在本系統(tǒng)中使用了OmniVision公司的OV9650攝像頭。S3C2440支持ITU-R BT601/656格式的數(shù)字圖像輸入,支持2個通道的DMA,Preview通道和Codec通道,參見圖4。本文引用地址:http://m.butianyuan.cn/article/150415.htm
Preview通道可以將YCbCr4:2:2格式的圖像轉換為RGB(16bit或24bit)格式的數(shù)據(jù),并存放于為PreviewDMA分配的內存中,最大分辨率為640×480。主要用于本地液晶屏顯示,Codec通道可以輸出YCbCr4:2:0或YCbCr4:2:2格式到為Codec DMA分配的內存中。最大分辨率為4 096x4 096,主要用于圖像的編解碼處理。在本系統(tǒng)中使用的是Codec通道。
視頻采集模塊的設計采用的是V4L2(Video for Linux Two)V4L2,它是Linux下開發(fā)視頻采集設備驅動程序的一套規(guī)范,該規(guī)范采用分層的方法給驅動程序的開發(fā)提供了清晰的模型和一致的接口,并且正對視頻設備的應用程序編程也提供了一系列接口函數(shù)。其中應用程序處于最上層,V4L2處于中間層,而實際的硬件設備則處于下層,其本身包括兩層驅動結構,上層是videodev模塊,下層為V4L2驅動程序。video-dev通過V4L2驅動程序的成員函數(shù)來調用V4L2驅動。在V4L2驅動的驅動程序初始化過程中,它首先枚舉它將要處理的系統(tǒng)中的設備,為每個設備填充struct v412_device結構,并且將指向該結構的指針傳遞給v412_register_device()函數(shù),該函數(shù)調用v4L2_deviee結構體中的初始化函數(shù)對設備進行初始化。當v412驅動程序初始化完成后,v412通過傳遞一個包含驅動程序成員函數(shù),次設備號以及相關信息的結構給videod-ev,從而完成它將要處理設備在videodev的注冊工作,當應用程序通過系統(tǒng)調用觸發(fā)了某個驅動程序時,控制權首先傳遞給videodev中的函數(shù),videodev將應用程序傳遞的文件或i節(jié)點結構指針轉換為相應的v412結構指針,并調用v412中的處理函數(shù)。以本系統(tǒng)以OV9650攝像頭為例,其驅動框架如圖5所示。
視頻采集過程如下,應用程序首先打開視頻設備文件,攝像頭在系統(tǒng)中對應的設備文件為/dev/camera,通過系統(tǒng)調用“open(“/ dev/camera”,O_RDWR)”函數(shù)打開該設備,獲得一個文件描述符fd,利用ioctl(fd,VIDIOCGPICT,capability)函數(shù)獲取攝像頭的相關信息,例如設備名稱、支持的最大最小分辨率、信號源信息等,填充在結構體video_capability中,通過調用ioctl(fd,VIDIOCGPICT,pict-ure)獲取圖像的相關信息如采集圖像的對比度、亮度、調色板等屬性,并且填充在video_picture結構體中,在獲取這類信息后,可根據(jù)實際需要來對其重新賦值,具體做法是將需要設置的值賦給相應結構體,然后通過系統(tǒng)調用ioctl(fd,VIDIOCSPICT,)函數(shù)寫入設備。在圖像獲取方式上使用mmap()系統(tǒng)調用來實現(xiàn)內存映射達到各進程共享內層的目的,利用共享內存通信的一個顯而易見的好處是效率高,因為進程可以直接讀寫內存,而不需要任何數(shù)據(jù)的拷貝。使用mmap方式獲取圖像數(shù)據(jù),需要首先設置圖像幀的緩沖區(qū)結構,即struct video_mmap,如每次采集幀數(shù),圖像高度、寬度,圖像調色板格式等等。然后調用ioctl(fd,VIDIOCMCAPTURE,grab_buf)啟動捕獲過程。調用iotcl(fd,VI-DIOCSYNC,frame)等待采集完成,若該函數(shù)成功返回則表示采集完畢,采集到的圖像將放在通過mmap()映射的內存區(qū)域內,讀取該內存數(shù)據(jù)即可獲得圖像數(shù)據(jù),其中frame為當前截取的幀數(shù),V4L2允許一次采集多幀數(shù)據(jù),可通過設置grab buf.frame來實現(xiàn)。調用close(fd)函數(shù)關閉設備文件,終止圖像采集。
2.2 視頻數(shù)據(jù)處理模塊設計
由視頻采集模塊獲取的視頻圖像需要通過3G網(wǎng)絡來進行傳輸,而從攝像頭直接采集的未經(jīng)壓縮的數(shù)據(jù)量非常大,為了在不影響圖像質量的前提下提高傳輸效率,本系統(tǒng)中對原始獲得的視頻圖像進行了壓縮編碼。由于MPEG-4是專門為播放流式媒體的高質量視頻而設計的,并且MPEG-4標準以其高壓縮比、高質量、低傳輸率已經(jīng)成為目前網(wǎng)絡多媒體傳輸?shù)闹饕袷胶蜆藴?。它可利用很窄的帶寬,通過幀重建技術壓縮和傳輸數(shù)據(jù),以求使得用最少的數(shù)據(jù)獲得最佳的圖像質量并且能夠保存接近于DVD畫質的小體積視頻文件。在本系統(tǒng)中選用開源的Xvidcore作為視頻壓縮模塊的核心算法。Xvidcore是一個高效而且便于移植的編碼軟件。它不僅支持Simple Profile和Advanced Profile,還支持I/P Frames B-Frames Interlacing和GMC,以鉆石和方塊模式來進行PMVFast和EPZS運行估計,是目前比較流行的MPEG-4編碼軟件。Xvidcore源碼可從網(wǎng)上下載免費獲得,目前最新版為xvidcore-1.2.2,它提供了一系列的庫函數(shù)及接口函數(shù)供應用程序使用。但針對嵌入式系統(tǒng)平臺,要使用該庫需要將其移植到嵌入式系統(tǒng)中。移植過程如下:
解壓源代碼:tar-zxvf xvidcore-1.2.2.tar.gz;在使用前需要對xvidcore-1.2.2進行交叉編譯,步驟如下:
1)設置環(huán)境變量:export=“xvidcore當前所在目錄”;
2)進入/build/generic目錄;
3)生成Makefrle:/configure-host=local hostbuild=arm-linux-gcc;//指定交叉編譯工具以便進行交叉編譯;
4)編譯源代碼:make。
將交叉編譯生成的庫文件libxvidcore.so.*拷貝到交叉編譯器工作目錄lib子目錄中。完成編碼庫的移植工作。
以上對個獨立模塊進行了介紹,在軟件實現(xiàn)上對系統(tǒng)進行了整體設計,將各個模塊有機的組合在一起,并充分考慮了系統(tǒng)的可擴展性。
主要結構體如下:
評論