博客專欄

EEPW首頁 > 博客 > 深度剖析多任務(wù)模型 QAT 策略

深度剖析多任務(wù)模型 QAT 策略

發(fā)布人:地平線開發(fā)者 時間:2025-02-23 來源:工程師 發(fā)布文章
本文為筆者個人見解,如有不同意見歡迎評論
1.引言

為了節(jié)省端側(cè)計算資源以及簡化部署工作,目前智駕方案中多采用動靜態(tài)任務(wù)融合網(wǎng)絡(luò),地平線也釋放了 Lidar-Camera 融合多任務(wù) BEVFusion 參考算法。這種多任務(wù)融合網(wǎng)絡(luò)的浮點訓(xùn)練策略可以簡述為:

首先在大量數(shù)據(jù)的條件下完成多任務(wù)模型 backbone 部分的浮點訓(xùn)練;

然后,固定 backbone 的權(quán)重,分別接多個 task head 進行單獨的訓(xùn)練。

在這種浮點訓(xùn)練策略下,QAT(量化感知訓(xùn)練)里的 calibration(校準)和量化訓(xùn)練策略跟常規(guī)的單 task 模型差別較大。常規(guī)的單 task 模型一般就是用那種比較固定、普遍適用的訓(xùn)練辦法,不過碰到復(fù)雜多變又有特定需求的情況,它的局限性就慢慢顯現(xiàn)出來了。

這篇文章會結(jié)合具體的場景,對 calibration 和量化訓(xùn)練策略進行分析,然后提出一些筆者個人獨特的看法,希望相關(guān)領(lǐng)域的研究和實踐提供點有用的參考和啟發(fā)。

2.量化訓(xùn)練策略

本文將以具有兩個任務(wù)頭 task_head1 和 task_head_2 的多任務(wù)模型為例進行描述。

2.1 步驟描述

此步驟的前提是模型已完成**浮點訓(xùn)練。**

在進行后續(xù)操作之前,必須確保模型已經(jīng)成功地完成了浮點訓(xùn)練。只有在這個前提條件得到滿足的情況下,才能保證后續(xù)的工作能夠順利進行,并且得到準確和可靠的結(jié)果。

step1:

首先對骨干網(wǎng)絡(luò)(backbone)進行校準/量化感知訓(xùn)練(calibration/qat),在滿足量化精度要求后,保存校準/量化感知訓(xùn)練的權(quán)重(calib/qat 權(quán)重)。

step2:

驗證 step1 中 backbone 在部署 head 上的精度,具體操作是對 backbone 進行偽量化處理,而 task_head1 和 task_head2 保持浮點計算,然后在驗證集上測試這兩個 head 的精度。

step3:

step2 驗證出的 task_head1 精度不符合預(yù)期,則說明 backbone 的偽量化對 task_head1 的浮點精度不夠友好,所以需要對模型做以下調(diào)整,具體操作方案如下:

對部署的 task_head1 和 task_head2 做 finetune,從而使得 task_head1 和 task_head2 去適應(yīng) backbone,直到浮點精度符合預(yù)期;

固定 backbone,對 task_head1 做 calib 和 QAT(backbone 的 weight 和 scale 不更新)

固定 backbone,對 task_hea2 做 calib 和 QAT(backbone 的 weight 和 scale 不更新)

固定 backbone 的 weight 和 scale 的方式見下文。

step4:

step2 驗證出的 head 精度符合預(yù)期,則使用以下方案:

固定 backbone 的 weight 和 scale,然后分別對 task_head1 和 task_head2 做 calib/qat;

2.2 固定 weight 的方式

固定 weight 采用 pytorch 的方法,包括固定 bn 和 stop 梯度更新這兩個操作,如下所示:

#固定bn` `model.eval()` `disable grad` `for param in model.parameters():` `    param.requires_grad = False
2.3 Fix weight 和 activation scale 的方式

征程 6 工具鏈中具有多種 Fix scale 的方式,本文將介紹其中的一種。自定義固定weightactivation的激活 scale 的 qconfig,即配置"averaging_constant": 0,如下為自定義的int8 weightint8/int16 activation固定 scale 的方式:

from horizon_plugin_pytorch.quantization.qconfig import get_default_qconfig
qat_8bit_fixed_weight_16bit_fixed_act_fake_quant_qconfig = (
   get_default_qconfig(
       weight_qkwargs={
           "dtype": qint8,#weight采用int8量化
           "averaging_constant": 0,#averaging_constant 置為 0 以固定 scale
       },
       activation_qkwargs={
           "dtype": qint16,#采activation用int16量化
           "averaging_constant": 0,#averaging_constant 置為 0 以固定 scale
       },
   )
)
qat_8bit_fixed_weight_8bit_fixed_act_fake_quant_qconfig = (
   get_default_qconfig(
       weight_qkwargs={
           "dtype": qint8,
           "averaging_constant": 0,
       },
       activation_qkwargs={
           "dtype": qint8,
           "averaging_constant": 0,
       },
   )
)
2.4 示意圖

本節(jié)將會針對上述步驟展開詳盡且全面的圖文闡釋,通過清晰直觀的圖片和詳細準確的文字說明,為您逐步剖析每個步驟的關(guān)鍵要點和操作細節(jié)。

2.4.1 驗證 backbone 變化對 head 的影響

此步驟的驗證前提是 backbone 已經(jīng)完成了 calib/qat,并且偽量化精度已經(jīng)滿足預(yù)期,這里建議 backbone 的偽量化精度要達到浮點精度的 90% 以上。

模型改造:在 backbone 的 forward 代碼的輸入端插入 Quanstub,輸出端插入 Dequanstub;

加載權(quán)重:在 prepare 之前加載 task_head1 或者 task_head2 的浮點權(quán)重, 在 prepare 之后加載 backbone 的 calib/qat 權(quán)重,這里要特別注意加載權(quán)重的順序;

calibration:配置模型狀態(tài)(如下圖),注意這里模型的狀態(tài)要配置為 VALIDATION,然后進行偽量化的精度的驗證;


如果某個 head 的精度較差,那么將固定 backbone 的權(quán)重,對此 head 的權(quán)重進行微調(diào)。



*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。




相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉