實戰(zhàn) | 實時的目標檢測與識別簡單應用
一、問題來源
最近總是有很多入門的朋友問我,我進入計算機視覺這個領域難不難?是不是要學習很多知識?到底哪個方向比較好?
這些問題其實我也不好回答他們,只能衷心告訴他們,如果你對這領域特別感興趣,那你可以進來試試玩玩,如果試過了玩過了,覺得這不是你喜歡的領域,那你可以立馬退出,選擇你喜歡的領域方向。我個人一直認為,科研這個東西,真的是要有興趣愛好,這是你動力和創(chuàng)新的源泉。只有對自己選擇的領域有興趣,有動力深入挖掘,我覺得一定會做得很好,可能還會創(chuàng)造出許多意想不到的結(jié)果。
如果現(xiàn)在你們?nèi)腴T的朋友,選擇了目標檢測類,你們可以沒事玩玩今天說的框架和網(wǎng)絡,這個過程真的可以學習很多東西,只要你愿意花費時間和精力去深入,現(xiàn)在我們閑話少說,直接進入正題。
二、我們來分析
正如我之前說的:深度學習近期總結(jié)分析。在目標檢測中,有很多經(jīng)典的網(wǎng)絡框架,比如RCNN,SSP,F(xiàn)ast RCNN。其中Fast RCNN就使用Selective Search來進行候選區(qū)域,但是速度依然不夠快。今天的主角(Faster R-CNN)則直接利用RPN(Region Proposal Networks)網(wǎng)絡來計算候選框。RPN以一張任意大小的圖片為輸入,輸出一批矩形候選區(qū)域,每個區(qū)域?qū)粋€目標分數(shù)和位置信息。Faster R-CNN中的RPN結(jié)構(gòu)如圖所示。
Faster RCNN的主要步驟如下:
特征提?。和現(xiàn)ast RCNN,以整張圖片為輸入,利用CNN得到圖片的特征層;
候選區(qū)域:在最終的卷積特征層上利用k個不同的矩形框(Anchor Box)進行提名,k一般取9;
分類與回歸:對每個Anchor Box對應的區(qū)域進行object/non-object二分類,并用k個回歸模型(各自對應不同的Anchor Box)微調(diào)候選框位置與大小,最后進行目標分類。
總之,F(xiàn)aster RCNN拋棄了Selective Search,引入了RPN網(wǎng)絡,使得候選區(qū)域、分類、回歸一起共用卷積特征,從而得到了進一步的加速。但是,F(xiàn)aster RCNN需要對兩萬個Anchor Box先判斷是否是目標(目標判定),然后再進行目標識別,分成了兩步。
今天就來講講怎么簡單操作該網(wǎng)絡,以便后期有興趣的朋友再次基礎上做出改進。
三、簡單入門實踐
git官網(wǎng)的py-faster-rcnn源碼
終端輸入:cd /home/**(您服務器的名字)
git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git
生成Cython模塊
終端輸入:cd /home/**(您服務器的名字)/py-faster-rcnn/lib
make
生成Caffe和pycaffe
終端輸入:cd /home/**(您服務器的名字)/py-faster-rcnn/caffe-fast-rcnn
cp Makefile.config.example Makefile.config
打開Makefile.config,修改之處可以根據(jù)您自己需求修改(比如你要使用Python,GPU等功能)
保存退出。
終端輸入:cd /home/**(您服務器的名字)/py-faster-rcnn/caffe-fast-rcnn
mkdir build
cd build
cmake ..(注意這是兩個句點,不要忘記)
make all -j16("‐j16"是使用 CPU 的多核進行編譯,可以提速,根據(jù)您自己
硬件調(diào)整)
make install
make runtest -j16
make pycaffe(編譯pycaffe)
下載fetch_fast_rcnn_models
終端輸入:cd /home/**(您服務器的名字)/py-faster-rcnn
./data/scripts/fetch_faster_rcnn_models.sh
運行demo.py
終端輸入:cd /home/home/**(您服務器的名字)/py-faster-rcnn/tools
./demo.py
到這幾,基本的都完成了,接下來就是實現(xiàn)自己的數(shù)據(jù)train和demo。
1
首先制作自己的數(shù)據(jù)集
(如果您用公共數(shù)據(jù)集,那就可以忽略這步驟)
保留data/VOCdevkit2007/VOC2007/Annotations和ImageSets和JPEGImages文件夾名稱,刪除其中所有的文件(保留文件夾)。其中Annotations保存標簽txt轉(zhuǎn)換的xml文件,ImageSets保存train.txt、trainval.txt、test.txt、val.txt四個文件分別儲存在layout、main和Segmentation文件夾中,最后JPEGImages保存所訓練的數(shù)據(jù)。
然后,Annotations中xml文件的制作。該部分的代碼我會放在公眾平臺的共享文件菜單中。最后做出來的效果就是如下所示:
最終生成的格式如下:
最后在ImageSets中的trainval文件中,根據(jù)你自己來劃分!
2
修改參數(shù)和文件
prototxt配置文件
models/pascal_voc/ZF/faster_rcnn_alt_opt文件夾下的5個文件,分別為:stage1_rpn_train.pt、stage1_fast_rcnn_train.pt、stage2_rpn_train.pt、stage2_fast_rcnn_train.pt和fast_rcnn_test.pt,修改格式如下:
(1)stage1_fast_rcnn_train.pt和stage2_fast_rcnn_train.pt修改參數(shù):
num_class:2(識別1類+背景1類),cls_score中num_output:2,bbox_pred中num_output:8
(2)stage1_rpn_train.pt和stage2_rpn_train.pt修改參數(shù):
num_class:2(識別1類+背景1類)
(3)fast_rcnn_test.pt修改參數(shù):
cls_score中num_output:2,bbox_pred中num_output:8(只有這2個)
修改lib/datasets/pascal_voc.py
self._classes = ('__background__', # always index 0 'zongzi')(只有這一類)
修改lib/datasets/imdb.py
數(shù)據(jù)整理,在一行代碼為:
boxes[:, 2] = widths[i] - oldx1 - 1 下加入代碼:
for b in range(len(boxes)):
if boxes[b][2]< boxes[b][0]:
boxes[b][0] = 0
修改完pascal_voc.py和imdb.py后進入lib/datasets目錄下刪除原來的pascal_voc.pyc和imdb.pyc文件,重新生成這兩個文件,因為這兩個文件是python編譯后的文件,系統(tǒng)會直接調(diào)用。
終端進入lib/datasets文件目錄輸入:
python(此處應出現(xiàn)python的版本)
>>>importpy_compile
>>>py_compile.compile(r'imdb.py')
>>>py_compile.compile(r'pascal_voc.py')
3
現(xiàn)在我們開始訓練自己數(shù)據(jù)
終端進入py-faster-rcnn下輸入:
./experiments/scripts/faster_rcnn_alt_opt.sh0 ZF pascal_voc
4
運行demo
運行demo,即在py-faster-rcnn文件夾下終端輸入:
./tools/demo.py --net zf
其中修改/tools/demo.py為:
(1) CLASSES =('__background__', 'zongzi')
(2) NETS ={'vgg16': ('VGG16', 'VGG16_faster_rcnn_final.caffemodel'),
'zf': ('ZF', 'ZF_faster_rcnn_final.caffemodel')}
四、實驗效果
注:有部分目標沒有檢測出來,可能是由于目標遮擋,重疊造成,所以往后需要我們大家做的就是,怎么去解決實際生活中遇到的種種問題,利用所學的知識和自己的創(chuàng)新去改進,優(yōu)化!
由于今天是端午假,大家都會吃粽子,所以今天的目標檢測就是“粽子”,通過各種渠道得到粽子的訓練和測試數(shù)據(jù)集,最后得到如下部分的結(jié)果可視化圖。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。
光耦相關文章:光耦原理
萬用表相關文章:萬用表怎么用
斷路器相關文章:斷路器原理
高壓真空斷路器相關文章:高壓真空斷路器原理 漏電斷路器相關文章:漏電斷路器原理