基于多傳感器信息融合的智能交通信息語義描述
Video_object_set中每個(gè)元素稱為Video_object,即交通對象。每個(gè)Video_object同時(shí)具有視覺特征(Visual Feature)和語義特征(Sem antic Features)。每類對象的視覺特征和語義特征如表2所示。本文引用地址:http://m.butianyuan.cn/article/160870.htm
Video_event_set表示的是視頻事件集,這些事件包括車輛直行駛過、車輛左拐、車輛右拐、闖紅燈、變道、違章停車、行人走過等交通事件,每個(gè)事件被賦予一個(gè)ID。Object_node引用Video_object_set中的元素Video_object,這樣就避免了對象的重復(fù)定義。Object_relati on表示的是對象(Video_object)之間的關(guān)系,這些關(guān)系通常如表3所示。
對于每件交通事件將其描述成對象之間的關(guān)系。例如對于闖紅燈事件,涉及到的對象即為行駛中的車輛、變?yōu)榧t燈的交通信號燈和停車線,車和停車線之間的關(guān)系就是車越:過停車線(Crosses)。對于違章停車事件,涉及到對象為某個(gè)不能停車的車道和靜止的車輛,它們之間的關(guān)系即為方位關(guān)系,即這輛車位于該車道之上(Top of)。
Sensor_status是當(dāng)有交通事件出現(xiàn)時(shí),相關(guān)的智能交通傳感器的檢測信息,當(dāng)用戶需要讀取傳感器的信息時(shí),可以直接讀出。這里的Traffic_sensor_node也需要引用Traffic_sensor_metadata中的Traffic_sensor,避免傳感器的重復(fù)定義。
2.4 Traffic_environment部分
這部分主要描述的是攝像頭監(jiān)控范圍內(nèi)的整個(gè)交通環(huán)境信息,包括該區(qū)域的天氣氣候情況、光照條件、該路段的總體交通信息。
3 智能交通多傳感器信息融合框架模型仿真
在此以車速檢測為例,對多種智能交通傳感器和攝像頭進(jìn)行決策級融合,以驗(yàn)證多傳感器信息融合框架的有效性。假設(shè)對于某一輛駛過的汽車,磁敏傳感器檢測到的車速為v1(單位:km/h),壓電式傳感器檢測到的車速為v2(單位:km/h),微波雷達(dá)檢測到的車速為v3(單位:km/h),攝像頭檢測到的車速為v4(單位:km/h),真實(shí)的車速為v(單位:km/h),則每個(gè)傳感器檢測車速的誤差為:
△v1=v1-v (1)
△v2=v2-v (2)
△v3=v3-v (3)
△v4=v4-v (4)
根據(jù)工程實(shí)踐,磁敏傳感器、攝像頭檢測結(jié)果誤差的均值和方差都比較大,而微波雷達(dá)和壓電式傳感器則相對比較精確。假設(shè)誤差△v1,△v2,△v3,△v4分別滿足近似正態(tài)分布,且:
△v1~N(4,9) (5)
△v2~N(2,4) (6)
△v3~N(1,4) (7)
△v4~N(3,9) (8)
對4種傳感器檢測的結(jié)果進(jìn)行融合,這里采用加權(quán)平均的模型對檢測結(jié)果進(jìn)行融合。4種傳感器所對應(yīng)的加權(quán)系數(shù)分別為w1,w2,w3,w4,且:
w1+w2+w3+w4=4 (9)
則融合結(jié)果為:
因?yàn)椤鱲1,△v2,△v3,△v4獨(dú)立,所以△vf也滿足正態(tài)分布,對以上過程進(jìn)行仿真,結(jié)果如圖3所示。
從圖3中可以看出,經(jīng)過融合,融合結(jié)果的誤差△vf的均值較小,動(dòng)態(tài)范圍也大幅度減小,因而多傳感器信息融合能有效提高系統(tǒng)的檢測精度。
評論