基于DSP的高速實(shí)時(shí)語(yǔ)音識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
實(shí)時(shí)語(yǔ)音識(shí)別系統(tǒng)中,由于語(yǔ)音的數(shù)據(jù)量大,運(yùn)算復(fù)雜,對(duì)處理器性能提出了很高的要求,適于采用高速DSP實(shí)現(xiàn)。雖然DSP提供了高速和靈活的硬件設(shè)計(jì),但是在實(shí)時(shí)處理系統(tǒng)中,還需結(jié)合DSP器件的結(jié)構(gòu)及工作方式,針對(duì)語(yǔ)音處理的特點(diǎn),對(duì)軟件進(jìn)行反復(fù)優(yōu)化,以縮短識(shí)別時(shí)間,滿足實(shí)時(shí)的需求。因此如何對(duì)DSP進(jìn)行優(yōu)化編程,解決算法的復(fù)雜性和硬件存儲(chǔ)容量及速度之間的矛盾,成為實(shí)現(xiàn)系統(tǒng)性能的關(guān)鍵。本文基于TMS320C6713設(shè)計(jì)并實(shí)現(xiàn)了高速實(shí)時(shí)語(yǔ)音識(shí)別系統(tǒng),在固定文本的說(shuō)話人辨識(shí)的應(yīng)用中效果顯著。
1 語(yǔ)音識(shí)別的原理
語(yǔ)音識(shí)別的基本原理框圖如圖1所示。語(yǔ)音信號(hào)中含有豐富的信息,從中提取對(duì)語(yǔ)音識(shí)別有用的信息的過(guò)程,就是特征提取,特征提取方法是整個(gè)語(yǔ)音識(shí)別系統(tǒng)的基礎(chǔ)。語(yǔ)音識(shí)別的過(guò)程可以被看作足模式匹配的過(guò)程,模式匹配是指根據(jù)一定的準(zhǔn)則,使未知模式與模型庫(kù)中的某一模型獲得最佳匹配。
1.1 MFCC
語(yǔ)音識(shí)別中對(duì)特征參數(shù)的要求是:
(1) 能夠有效地代表語(yǔ)音特征;
(2) 各階參數(shù)之間有良好的獨(dú)立性;
(3) 特征參數(shù)要計(jì)算方便,保證識(shí)別的實(shí)時(shí)實(shí)現(xiàn)。
系統(tǒng)使用目前最為常用的MFCC(Mel FrequencyCepstral Coefficient,美爾頻率倒譜系數(shù))參數(shù)。
求取MFCC的主要步驟是:
(1) 給每一幀語(yǔ)音加窗做FFT,取出幅度;
(2) 將幅度和濾波器組中每一個(gè)三角濾波器進(jìn)行Binning運(yùn)算;
(3) 求log,換算成對(duì)數(shù)率;
(4) 從對(duì)數(shù)率的濾波器組幅度,使用DCT變換求出MFCC系數(shù)。
本文中采用12階的MFCC,同時(shí)加過(guò)零率和delta能量共14維的語(yǔ)音參數(shù)。
1.2 DTW
語(yǔ)音識(shí)別中的模式匹配和模型訓(xùn)練技術(shù)主要有DTW(Dynamic Time Warping,動(dòng)態(tài)時(shí)間彎折)、HMM(HideMarkov Model,隱馬爾科夫模型)和ANN(Artificial Neu-ral Network,人工神經(jīng)元網(wǎng)絡(luò))。
DTW是一種簡(jiǎn)單有效的方法。該算法基于動(dòng)態(tài)規(guī)劃的思想,解決了發(fā)音長(zhǎng)短不一的模板匹配問題,是語(yǔ)音識(shí)別中出現(xiàn)較早、較為經(jīng)典的一種算法。DTW算法的原理是計(jì)算兩個(gè)長(zhǎng)度不同的語(yǔ)音之間的相似程度,即失真距離。
設(shè)測(cè)試語(yǔ)音和參考語(yǔ)音用T和R表示,他們分別含有N幀和M幀的語(yǔ)音參數(shù)。本文中每幀語(yǔ)音的特征參數(shù)為14維,因此T,R分別為N
評(píng)論