博客專欄

EEPW首頁 > 博客 > 為什么雙目自動駕駛系統(tǒng)難以普及?

為什么雙目自動駕駛系統(tǒng)難以普及?

發(fā)布人:傳感器技術(shù) 時間:2024-07-05 來源:工程師 發(fā)布文章
單目視覺是Mobileye(ME)的看家法寶,其實當年它也考慮過雙目,最終選擇放棄。

單目的測距和3-D估計靠什么?是檢測目標的Bounding Box(BB),如果無法檢測的障礙物,該系統(tǒng)就無法估計其距離和3-D姿態(tài)/朝向。沒有深度學習的時候,ME主要是基于BB,攝像頭標定得到的姿態(tài)和高度以及路面平直的假設(shè)估算距離。有了深度學習,可以根據(jù)3-D的ground truth來訓練NN模型,得到3D大小和姿態(tài)估計,距離是基于平行線原理(single view metrology)得到的。不久前百度Apollo公布的單目L3解決方案講的比較清楚了,參考論文是“3D Bounding Box Estimation by Deep Learning and Geometry".雙目當然可以算視差和深度了,即使沒有檢測出障礙物(因為有附加的深度信息,檢測器會比單目好),也會報警。問題是,雙目視覺系統(tǒng)估計視差沒那么容易,立體匹配是計算機視覺典型的難題,基線寬得到遠目標測距準,而基線短得到近目標測距結(jié)果好,這里是存在折衷的。目前市場上ADAS存在的雙目視覺系統(tǒng)就是Subaru EyeSight,據(jù)說性能還行。

圖片

百度推出的阿波龍L4擺渡車量產(chǎn)100臺,就安裝了雙目系統(tǒng)。還有歐盟自主泊車項目V-Charge也采用了前向雙目視覺系統(tǒng),另外自動駕駛研發(fā)系統(tǒng)Berta Benz也是,而且和雷達系統(tǒng)后融合,其中雙目匹配的障礙物檢測算法Stixel很出名。以前Bosch和Conti這些Tier-1公司也研制過雙目視覺解決方案,但沒有在市場上產(chǎn)生影響力,據(jù)說被砍掉了。談到雙目系統(tǒng)的難點,除了立體匹配,還有標定。標定后的系統(tǒng)會出現(xiàn)“漂移”的,所以在線標定是必須具有的。單目也是一樣,因為輪胎變形和車體顛簸都會影響攝像頭外參數(shù)變化,必須在線做標定修正一些參數(shù),比如仰角(pitch angle)和偏角(yaw angle)。雙目在線標定就更復(fù)雜些,因為雙目匹配盡量簡化成1-D搜索,所以需要通過stereo rectification將兩個鏡頭光軸方向平行并和基線垂直。所以針對獲得的gain相比,增加的復(fù)雜度和成本,如果不劃算商家就會放棄。最近重提雙目視覺,是因為硅谷芯片公司安霸(Ambarella)在2014年收購意大利帕爾馬大學的Vis Lab,研制了雙目的ADAS和自動駕駛芯片,去年CES之后就開始進軍車企和Tier-1。而且,安霸目前正在繼續(xù)研究提升該系統(tǒng)的性能。下圖就是它在車頂安裝6對立體視覺系統(tǒng)的示意圖,其中它們的基線寬度可以不一樣的,相應(yīng)地有效檢測距離也就不同。筆者曾坐過它的自動駕駛車,遠處可以看到200米,近處20-30米。它確實可以做在線標定,隨時調(diào)整一些雙目視覺的參數(shù)。

圖片


圖片

立體匹配先說立體匹配,即視差/深度估計。如圖假設(shè)左右攝像頭焦距f,基線(兩個光心連線)寬B,3-D點X的深度z,而其視差(投影到左右圖像的2-D點,其坐標差)即

圖片圖片

可見視差能夠反算深度值。但是這里最難的就是左右鏡頭看到的圖像如何確定是同一個目標,即匹配問題。匹配方法分兩種,全局法和局部法,雙目匹配的四個步驟:

  1. 匹配成本(matching cost)計算;
  2. 成本聚集(aggregation);
  3. 視差(disparity)計算/優(yōu)化;
  4. 視差修正(refinement)。

最著名的局部法就是SGM(semi-global matching),很多產(chǎn)品在用的方法都是基于此的改進,不少視覺芯片都采用這種算法。SGM就是把一個全局優(yōu)化近似成多個局部優(yōu)化的問題組合,如下公式是2-D匹配的優(yōu)化目標函數(shù),SGM實現(xiàn)成為多個1-D優(yōu)化路徑之和

圖片

下圖是沿著水平方向的路徑優(yōu)化函數(shù)

圖片

Census Transform是將8/24比特的像素變成一個2進制序列,另外一個2值特征叫LBP(local binary pattern)和它相似。立體匹配算法就是基于這個變換將匹配變成一個Hamming距離的最小化搜索。Intel的RealSense當年就是收購了一個成立于1994年基于該技術(shù)的雙目視覺創(chuàng)業(yè)公司,還收購另外幾個小公司把他們合在一起做出來的。下圖是CS變換的示意圖:

圖片

PatchMatch是一個加速圖像模版匹配的算法,被用在光流計算和視差估計上。之前微軟研究院曾經(jīng)做過一個基于單目手機相機3-D重建的項目,仿造以前成功的基于RGB-D算法KinectFusion,名字也類似MonoFusion,其中深度圖估計就是采用一個修正的PatchMatch方法。其基本思想就是對視差和平面參數(shù)隨機初始化,然后通過鄰域像素之間信息傳播更新估計。PM算法分五個步驟:

  • 1) 空間傳播(Spatial propagation): 每個像素檢查左邊和上邊鄰居視差和平面參數(shù),如果匹配成本變小就取代當前估計;
  • 2) 視角傳播(View propagation): 其他視角的像素做變換,檢查其對應(yīng)圖像的估計,如果變小就取代;
  • 3) 時域傳播(Temporal propagation): 前后幀考慮對應(yīng)像素的估計;
  • 4) 平面細化(Plane refinement): 隨機產(chǎn)生樣本,如果估計使匹配成本下降,更新。
  • 5) 后處理(Post-processing): 左右一致性和加權(quán)中值濾波器去除出格點(outliers)。

下圖是PM的示意圖:

圖片


圖片

在線標定再說在線標定。
這是一個利用路上標志線(斑馬線)的標定方法:已知斑馬線的平行線模式,檢測斑馬線并提取角點,計算斑馬線模式和路面實現(xiàn)匹配的單映性變換(Homography)參數(shù),得到標定參數(shù)。

圖片

另外一個方法基于VO和SLAM,比較復(fù)雜,不過可以同時做基于地圖的定位。采用SLAM做在線標定,不適合高頻率操作,下圖是其算法的流程圖:1-4步, 通過立體視覺SLAM獲取全局連續(xù)地圖;第5步給出雙目相機變換初始估計,第6步把所有立體相機的地圖聚合成一個地圖;7-8步獲取多個相機之間的姿態(tài)。

圖片

和單目方法類似,采用車道線平行和路平面這個假設(shè)可以快速完成在線標定,即消失點(vanishing point)理論:假設(shè)一個平坦的道路模型,清晰的縱向車道線,沒有其他目標的邊緣和它們平行;要求駕駛車輛速度慢,車道線連續(xù),左右相機的雙目配置要左攝像頭相對路面的仰角/斜角(yaw/roll angles)比較小;這樣跟初始化的消失點(與線下標定相關(guān))比較可以算出雙目外參數(shù)的漂移量,其算法就是從消失點估計攝像頭仰角/斜角。

圖片


圖片

典型的雙目自動駕駛系統(tǒng)下面介紹幾個典型的雙目自動駕駛系統(tǒng)。
Berta Benz采用的障礙物檢測算法Stixel基于以下假設(shè):場景中的目標描述為列,重心的原因目標是站立在地面上,每個目標上的上部比下部的深度大。下圖(a-d) 介紹了SGM視差結(jié)果如何生成Stixel分割結(jié)果:

圖片

下圖是Stixels 計算的示意圖:(a)基于動態(tài)規(guī)劃的自由駕駛空間計算 (b) 高度分割中的屬性值 (c) 成本圖像 (灰度值反過來) (d) 高度分割。

圖片

這是他們加上深度學習做視差融合之后再做Stixel的框圖和新結(jié)果:

圖片圖片

介紹一個VisLab早期雙目障礙物的算法,Generic Obstacle and Lane Detection system (GOLD)?;贗PM(Inverse Perspective Mapping),檢測車道線,根據(jù)左右圖像的差計算路上障礙物:

圖片

(a) Left. (b) Right (c) Remapped left. (d) Remapped right. (e) Thresholded and filtered difference between remapped views. (f) In light gray, the road area visible from both cameras.

圖片

(a) Original. (b) Remapped. (c) Filtered. (d) Enhanced. (e) Binarized.

圖片

GOLD system architecture這是VisLab參加自動駕駛比賽VIAC (VisLab Intercontinental Autonomous Challenge)的車輛,除了雙目攝像頭以外,車上還有激光雷達作為道路分類的輔助。

圖片

這是其雙目障礙物檢測流程圖:視差估計利用了SGM算法和基于SAD的相關(guān)算法。

圖片

后處理中加了兩個DSI(Disparity Space Image)空間的濾波器,見圖5-274,一個是平滑處理,另一個是基于慣導(IMU)的運動軌跡處理。

圖片

障礙物檢測算法采用了JPL的方法,基于空間布置特性以及車輛的物理特性聚類得到障礙物。物理特性包括最大的高度(車輛),最小高度(障礙物)和最大道路可通過范圍,這些約束定義了一個空間截斷錐(truncated cone), 如圖所示,那么在聚類過程中凡是落在截斷錐內(nèi)的點劃為障礙物。

圖片

為加速視差估計算法,采用了劃分DSI的方法:

圖片

另外一種經(jīng)典的方法是根據(jù)路面方程(立體視覺)得到路面視差,基于此計算出路面的障礙物:

圖片圖片

總的來看,雙目檢測障礙物的方法基本基于視差圖,基于路面視差的方法較多。也許隨著深度學習發(fā)展的突飛猛進,加上計算平臺的增強,雙目自動駕駛系統(tǒng)也會普及起來。


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: 雙目自動駕駛

技術(shù)專區(qū)

關(guān)閉