新聞中心

EEPW首頁(yè) > 嵌入式系統(tǒng) > 設(shè)計(jì)應(yīng)用 > 應(yīng)用兩級(jí)分類實(shí)現(xiàn)車牌字符識(shí)別

應(yīng)用兩級(jí)分類實(shí)現(xiàn)車牌字符識(shí)別

作者: 時(shí)間:2011-10-13 來(lái)源:網(wǎng)絡(luò) 收藏

車牌識(shí)別系統(tǒng)LPR(License Plate Recognition)包括車牌定位、字符分割和字符識(shí)別三大部分。其中,字符識(shí)別的準(zhǔn)確及高效成為整個(gè)車牌識(shí)別系統(tǒng)的關(guān)鍵。
是模式識(shí)別的一個(gè)重要研究領(lǐng)域,字符特征提取可分為基于統(tǒng)計(jì)特征和基于結(jié)構(gòu)特征兩大類[1],統(tǒng)計(jì)方法具有良好的魯棒性和抗干擾性等,但是,由于其采用累加的方法,對(duì)于“敏感部位”的差異也隨之消失,即對(duì)形近字的區(qū)分能力較差。而結(jié)構(gòu)方法對(duì)細(xì)節(jié)特征較敏感,區(qū)分形近字符的能力較強(qiáng),但是難以抽取、不穩(wěn)定、算法復(fù)雜度高。分類器設(shè)計(jì)方面,人工神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)SVM(Support Vector Machine)[2]等技術(shù)已被用于研究中,有效地提高了識(shí)別率,但缺少基于特征的優(yōu)化設(shè)計(jì)。
本文針對(duì)實(shí)際采集的車牌圖像質(zhì)量不高所導(dǎo)致的字符形變、噪聲、易混淆的問(wèn)題,根據(jù)人類視覺活動(dòng)的問(wèn)題,選取基于輪廓的統(tǒng)計(jì)特征反映字符整體信息;選取結(jié)構(gòu)特征反映字符細(xì)節(jié)信息,采用SVM作為分類器,并對(duì)基于輪廓的特征提取方法進(jìn)行了優(yōu)化設(shè)計(jì)。
1 算法框架
本文提出的識(shí)別算法模擬人類智能,采用兩級(jí)分類識(shí)別的思想處理車牌字符識(shí)別問(wèn)題,引入可信度評(píng)判機(jī)制。經(jīng)預(yù)處理后的字符首先進(jìn)入粗分類識(shí)別,采用基于輪廓的統(tǒng)計(jì)特征作為粗分類的特征提取方法,利用SVM分類器得出分類識(shí)別結(jié)果,并計(jì)算結(jié)果的可信度。識(shí)別系統(tǒng)將粗分類識(shí)別結(jié)果的可信度與預(yù)先設(shè)置好的用于判別形近字的可信度閾值相比較,如果可信度大于閾值,則識(shí)別系統(tǒng)將字符歸為非形近字,并將結(jié)果輸出;否則, 識(shí)別系統(tǒng)將字符歸為形近字,并根據(jù)粗分類識(shí)別結(jié)果,計(jì)算字符所屬的形近字類別,將字符送入細(xì)分類識(shí)別,提取字符的結(jié)構(gòu)特征作為細(xì)分類的特征提取方法,利用決策表中的形近字區(qū)分規(guī)則,得到識(shí)別結(jié)果。圖1為識(shí)別系統(tǒng)算法流程圖。

2 一級(jí)分類識(shí)別
2.1 粗分類特征提取

粗分類的特征提取方法應(yīng)該能夠描繪字符的整體信息,基于輪廓的統(tǒng)計(jì)特征描繪字符外圍輪廓的變化。利用距離反映輪廓的方法,通過(guò)計(jì)算字符圖像左、右、上、下四個(gè)邊框到筆畫間的距離,得到圖像輪廓的統(tǒng)計(jì)特征。設(shè)預(yù)處理后的二值化字符圖像為f(i,j),具體算法為:

其中,width、length為字符圖像的寬和高。規(guī)定此行或此列沒有筆畫時(shí),其特征值為零。
圖2為字符‘6’的四組輪廓特征,從圖中可以看出,曲線在高度變化上反映出了字符外圍輪廓特征。根據(jù)輪廓特征曲線可以找出同類字符間的相關(guān)性、不同類字符間的差異性。

然而,這樣直接提取的特征容易受到字符偏移的影響,因此,本文對(duì)提取的原始特征進(jìn)行了如下優(yōu)化:
(1)分別循環(huán)平移特征值LP(i)、RP(i)、TP(i)、BP(i),使其前后為零特征值的個(gè)數(shù)大致相等,這樣提取的特征值在分類器中更具可比性。
(2)由于字符存在水平偏移和垂直偏移,所以需要消除字符偏移對(duì)特征值的影響。首先,按照下式計(jì)算字符水平偏移量LO:

其中,[·]表示取整數(shù)。
消除垂直偏移量對(duì)特征值的影響與消除水平偏移量方法類似,這里不再重復(fù)。
  圖3所示為圖2優(yōu)化后的特征曲線。從圖中可以看出,優(yōu)化后的特征曲線左右為零值的特征數(shù)量大致相等,第一、二組的最小特征值大致相等,第三、四組最小特征值也大致相等。由此可見,依據(jù)上述優(yōu)化方法對(duì)四組輪廓特征加以修正,可以有效地克服字符位置偏移對(duì)特征值的影響,增加同類字符間的相關(guān)性。

2.2 一級(jí)粗分類器設(shè)計(jì)
本文提取的粗分類特征維數(shù)比較大,SVM能夠較好地解決小樣本、非線性及高維的模式識(shí)別問(wèn)題,而且在高維空間中的推廣能力并不受維數(shù)影響,所以本文選取SVM作為分類器進(jìn)行車牌字符的識(shí)別。
2.2.1 支持向量機(jī)(SVM)算法原理
SVM是建立在統(tǒng)計(jì)學(xué)習(xí)理論的VC維(Vapnik-Chervonenkis Dimension)理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理SRM(Structural Risk Minimization)基礎(chǔ)上的一種新機(jī)器學(xué)習(xí)系統(tǒng)[3]。SVM方法是從線性可分情況下的最優(yōu)分類面提出的。對(duì)于線性不可分情況,SVM通過(guò)增加一個(gè)松弛項(xiàng)ξi≥0和對(duì)錯(cuò)分樣本的懲罰因子C進(jìn)行推廣。而對(duì)于非線性問(wèn)題,首先通過(guò)非線性變換將輸入空間變換到一個(gè)高維內(nèi)積空間,然后在這個(gè)新空間中求取最優(yōu)超平面。由于在特征空間H中構(gòu)造最優(yōu)超平面時(shí),訓(xùn)練算法只涉及訓(xùn)練樣本之間的內(nèi)積運(yùn)算(xi·xj)。
2.2.2 核函數(shù)的選取
  根據(jù)Hilbert-Schmidt原理,只要一種核函數(shù)K(x,y)滿足Mercer條件,它就對(duì)應(yīng)某一變換空間中的內(nèi)積。K(x,y)只涉及x、y,并沒有高維運(yùn)算。由此可見,核函數(shù)的引入避免了非線性映射計(jì)算的復(fù)雜性。有研究表明,SVM方法并不十分依賴核函數(shù)的選取,即不同的核函數(shù)對(duì)分類性能影響不大,所以本文選取應(yīng)用廣泛的徑向基核函數(shù)(RBF)作為核函數(shù):

2.3 可信度
可信度是不確定性推理中用于度量證據(jù)、規(guī)則和結(jié)論不確定性的一種方法。由于多種因素的影響,車牌字符識(shí)別過(guò)程中存在一定的不確定性,所以本文引入不確定性推理來(lái)判斷識(shí)別結(jié)果是否可以被信任。
2.3.1 可信度概念
  可信度CF用于度量證據(jù)、結(jié)論和規(guī)則的不確定性程度[6],CF的作用域?yàn)閇-1,1]。設(shè)一個(gè)不確定推理過(guò)程的證據(jù)為A,結(jié)論為B,推理規(guī)則為:IF A THEN B。
(1)證據(jù)的不確定性度量:CF(A)表示證據(jù)的可信度,CF(A)>0,表示A以CF(A)程度為真;CF(A)<0,表示A以CF(A)程度為假。
(2)規(guī)則的不確定性度量:CF(B,A)表示規(guī)則的可信度。CF(B,A)>0,表示證據(jù)增加了結(jié)論為真的程度;反之CF(B,A)<0,表示證據(jù)增加了結(jié)論為假的程度。


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 車牌字符識(shí)別

評(píng)論


技術(shù)專區(qū)

關(guān)閉