博客專欄

EEPW首頁 > 博客 > 人臉專集知識鞏固3 | 人臉關鍵點檢測(下)

人臉專集知識鞏固3 | 人臉關鍵點檢測(下)

發(fā)布人:CV研究院 時間:2021-04-27 來源:工程師 發(fā)布文章

Deep learning based methods

近年來,深度學習成為解決計算機視覺問題的常用工具。對于人臉關鍵點檢測和跟蹤,有從傳統(tǒng)方法向基于深度學習的方法轉(zhuǎn)變的趨勢。

在早期的工作中(Wu, Y., Wang, Z., Ji, Q.: Facial feature tracking under varying facial expressions and face poses based on restricted boltzmann machines. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3452–3459 (2013)),深層Boltzmann模型,一個概率深度模型,被用來捕捉由于姿態(tài)和表情而引起的面部形狀變化,用于人臉里程碑的檢測和跟蹤。近年來,卷積神經(jīng)網(wǎng)絡模型成為人臉關鍵點檢測,主要是深度學習模型,并且大多采用全局直接回歸或級聯(lián)回歸框架。這些方法大致可分為純學習法和混合學習法。

純學習方法直接預測人臉關鍵點位置,而混合學習方法則將深度學習方法與計算機視覺投影模型相結(jié)合進行預測。

Pure-learning methods

純學習方法:這類方法使用強大的CNNs模型從人臉圖像中直接預測關鍵點位置。在早期的工作中(Sun, Y., Wang, X., Tang, X.: Deep convolutional network cascade for facial point detection. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3476–3483 (2013)),它以級聯(lián)的方式預測了五個人臉關鍵點。在第一層,它應用一個包含四個卷積層的CNN模型(下圖)來預測由面部邊界框確定的人臉圖像的關鍵點位置。然后,幾個淺層網(wǎng)絡對每個點進行局部細化。

1.jpg

從那以后,在兩個方向上都比早起某些工作有一些改進。在第一個方向上,(Zhang, Z., Luo, P., Loy, C., Tang, X.: Facial landmark detection by deep multi-task learning. In: European Conference on Computer Vision, Part II, pp. 94–108(2014)和Zhang, Z., Luo, P., Loy, C.C., Tang, X.: Learning deep representation for face alignment with auxiliary attributes. IEEE Transactions on Pattern Analysis and Machine Intelligence 38(5), 918–930 (2016))利用多任務學習的思想來提高性能。直覺是,多個任務可以共享相同的表示,它們的聯(lián)合關系將提高單個任務的性能。例如,多任務學習與CNN模型相結(jié)合,共同預測面部特征、面部頭部姿態(tài)、面部屬性等。在該工作(Ranjan, R., Patel, V.M., Chellappa, R.: Hyperface: A deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition. CoRR abs/1603.01249 (2016). URL http://arxiv.org/abs/1603.01249)提出了一個類似的多任務CNN框架,以聯(lián)合執(zhí)行人臉檢測、地標定位、姿態(tài)估計和性別識別。不同的是它結(jié)合了多個卷積層的特征,以利用粗特征表示和精細特征表示。

2.jpg

在第二個方向上,一些工作改進了方法的級聯(lián)程序(Sun, Y., Wang, X., Tang, X.: Deep convolutional network cascade for facial point detection. In: IEEE Conference on Computer Vision and Pattern Recognition, pp. 3476–3483 (2013))。例如,某paper構(gòu)造了類似的級聯(lián)CNN模型來預測更多的點(68個關鍵點而不是5個)(Zhou, E., Fan, H., Cao, Z., Jiang, Y., Yin, Q.: Extensive facial landmark localization with coarse-to-fine convolutional network cascade. In: IEEE International Conference on Computer Vision Workshops, pp. 386–391 (2013))。它從所有68個點的預測開始,并逐步將預測分解為局部的面部成分。在該paper(Zhang, J., Shan, S., Kan, M., Chen, X.: Coarse-to-fine auto-encoder networks (CFAN) for real-time face alignment. In: European Conference on Computer Vision, Part II, pp. 1–16 (2014))中,深層自動編碼器模型用于執(zhí)行相同的級聯(lián)關鍵點搜索。而在(Trigeorgis, G., Snape, P., Nicolaou, M.A., Antonakos, E., Zafeiriou, S.: Mnemonic descent method: A recurrent process applied for end-to-end face alignment. In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4177–4187. Las Vegas, NV, USA (2016))中,Trigeorgis等人沒有以級聯(lián)的方式訓練多個網(wǎng)絡,訓練了一種深度卷積遞歸神經(jīng)網(wǎng)絡(RNN),用于端到端面部關鍵點的檢測,以模擬級聯(lián)行為。級聯(lián)階段嵌入到RNN的不同時間切片中。

Hybrid deep methods

3.png

混合深度方法將CNN與3D視覺相結(jié)合,如投影模型和三維形變形狀模型(上圖)。它們不是直接預測二維面部關鍵點位置,而是預測三維形狀可變形模型系數(shù)和頭部姿態(tài)。然后,通過計算機視覺投影模型確定二維關鍵點位置。例如,(Zhu, X., Lei, Z., Liu, X., Shi, H., Li, S.: Face alignment across large poses: A 3d solution. In: IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV (2016))建立了一個密集的三維人臉模型。然后,采用迭代級聯(lián)回歸框架和深度CNN模型對三維人臉形狀系數(shù)和姿態(tài)參數(shù)進行更新。在每一次迭代中,利用視覺投影模型將三維形狀投影到二維,并將二維形狀作為CNN回歸預測模型的附加輸入,以融合目前估計的三維參數(shù)。類似地,(Kanade, T., Cohn, J.F., Tian, Y.: Comprehensive database for facial expression analysis. In: IEEE International Conference on Automatic Face and Gesture Recognition, pp. 46–53)在第一個級聯(lián)CNN模型中使用整個面部外觀來預測三維形狀參數(shù)和姿態(tài)的更新,而在后期級聯(lián)CNN模型中使用局部斑塊來細化關鍵點。

4.jpg

與純學習方法相比,混合方法的三維形狀變形模型和姿態(tài)參數(shù)是表示二維關鍵點位置的更為緊湊的方法。因此,CNN中需要估計的參數(shù)較少,形狀約束可以顯式地嵌入到預測中。此外,由于引入了三維姿態(tài)參數(shù),它們可以更好地處理姿態(tài)變化。

三大類之間的關系分析

在之前講解中,我們討論了面部表情三種主要類別中的關鍵點檢測方法:整體方法、約束局部方法(CLM)和基于回歸的方法。三種主要的方法存在著相似之處和相互關系。

5.jpg

首先,整體方法和CLMs都將使用顯式構(gòu)造的面部形狀模型捕捉全局面部形狀模式,這些模型通常在它們之間共享。CLMs改進了整體方法,因為它們使用局部外觀,而不是整體的面部外觀。所需的動機是將整體的面部外觀建模更困難,并且局部圖像修補程序與整體外觀模型相比,光照改變和面部遮擋更加魯棒。

第二,基于回歸的方法,尤其是用于級聯(lián)回歸方法與整體AAM共享相似的直覺。例如,它們通過擬合外觀來估計關鍵點,并且它們?nèi)靠梢员慌渲瞥煞蔷€性的平方問題。然而,整體方法預測2D形狀,外觀模型系數(shù)通過擬合整體外觀模型,而級聯(lián)回歸方法直接通過擬合局部外觀而不顯式2D形狀模型來預測關鍵點。該配件整體方法的問題可以用基于LearnBased的方法或分析方式來解決,如前面所討論的那樣,所有級聯(lián)回歸方法執(zhí)行通過學習進行估計。雖然整體模型的基于學習的擬合方法通常使用相同的方法,用于以迭代方式進行系數(shù)更新的模型,級聯(lián)回歸方法以級聯(lián)方式學習不同的回歸模型。

AAM模型在之前討論為一種特定類型的整體方法非常類似于監(jiān)督下降方法(SDM)(Xiong, X., De la Torre Frade, F.: Supervised descent method and its applications to face alignment. In: IEEE International Conference on Computer Vision and Pattern Recognition (2013))作為一種特定類型的方法級聯(lián)回歸方法。兩個級聯(lián)學習從形狀索引特征到形狀(系數(shù))更新的映射的模型。經(jīng)訓練的模型在當前級聯(lián)階段中,將修改訓練用于在下一狀態(tài)下訓練回歸模型的數(shù)據(jù)。雖然以前的整體方法適合整體外觀并預測模型系數(shù),但SDM擬合局部外觀并預測關鍵點位置。

第三,在CLM中使用的基于regressional的局部外觀模型中存在相似性。之前的基于回歸方法,兩者都預測從關鍵點位置的初始猜測的位置更新。以前的方法獨立地預測每個關鍵點位置,而后來的方法預測它們是聯(lián)合的,形狀約束可以隱式嵌入。以前的方法通常執(zhí)行一步預測,相同的回歸模型,而后面的方法可以以級聯(lián)方式應用不同的回歸函數(shù)。

第四,與整體方法和約束局部方法相比,基于回歸的方法可能會更有希望?;诨貧w的方法繞過顯式面部形狀建模并隱式嵌入人臉形狀模式約束?;诨貧w的方法直接預測關鍵點,而不是整體方法中的模型系數(shù)。直接預測形狀通??梢杂捎谛∧P拖禂?shù),實現(xiàn)較好的精度錯誤可能導致大的關鍵點誤差。

預測困難

人臉姿勢

6.jpg

人臉遮擋

7.jpg

人臉表情

8.jpg

下期我們針對各種因素進行講解,并在流行的數(shù)據(jù)集上的實驗效果做詳細描述,最后給出未來趨勢及著重點。

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。

電接點壓力表相關文章:電接點壓力表原理


關鍵詞: AI

相關推薦

技術專區(qū)

關閉