針對(duì)不平衡問(wèn)題建模的有趣Loss
文章綜述了康奈爾大學(xué)、康奈爾科技、谷歌Brain和Alphabet公司的基于有效樣本數(shù)的類平衡損失(CB損失)。使用每個(gè)類的有效樣本數(shù)量來(lái)重新為每個(gè)類的Loss分配權(quán)重。
1. 類別平衡問(wèn)題
兩個(gè)類,分別來(lái)自長(zhǎng)尾數(shù)據(jù)集的頭部和尾部(iNaturalist 2017 dataset)假設(shè)有像上面那樣的不平衡的類。head:對(duì)于索引小的類,這些類有較多的樣本。Tail:對(duì)于大索引的類,這些類的樣本數(shù)量較少。黑色實(shí)線:直接在這些樣本上訓(xùn)練的模型偏向于優(yōu)勢(shì)類。紅色虛線:通過(guò)反向類頻率來(lái)重新加權(quán)損失可能會(huì)在具有高類不平衡的真實(shí)數(shù)據(jù)上產(chǎn)生較差的性能。藍(lán)虛線:設(shè)計(jì)了一個(gè)類平衡項(xiàng),通過(guò)反向有效樣本數(shù)來(lái)重新加權(quán)損失。
2. 有效樣本數(shù)量
數(shù)據(jù)間信息重疊,左:特征空間S,中:1個(gè)樣本數(shù)據(jù)的單位體積,右:數(shù)據(jù)間信息重疊
直覺(jué)上,數(shù)據(jù)越多越好。但是,由于數(shù)據(jù)之間存在信息重疊,隨著樣本數(shù)量的增加,模型從數(shù)據(jù)中提取的邊際效益會(huì)減少
左:給定一個(gè)類,將該類的特征空間中所有可能數(shù)據(jù)的集合表示為S。假設(shè)S的體積為N且N≥1。中:S子集中的每個(gè)樣本的單位體積為1,可能與其他樣本重疊。Right:從S中隨機(jī)抽取每個(gè)子集,覆蓋整個(gè)S集合。采樣的數(shù)據(jù)越多,S的覆蓋率就越好。期望的采樣數(shù)據(jù)總量隨著樣本數(shù)量的增加而增加,以N為界。
因此,將有效樣本數(shù)定義為樣本的期望體積。
這個(gè)想法是通過(guò)使用一個(gè)類的更多數(shù)據(jù)點(diǎn)來(lái)捕捉邊際效益的遞減。由于現(xiàn)實(shí)世界數(shù)據(jù)之間的內(nèi)在相似性,隨著樣本數(shù)量的增加,新添加的樣本極有可能是現(xiàn)有樣本的近重復(fù)。另外,cnn是用大量的數(shù)據(jù)增廣來(lái)訓(xùn)練的,所有的增廣實(shí)例也被認(rèn)為與原始實(shí)例相同。對(duì)于一個(gè)類,N可以看作是唯一原型的數(shù)量。
新的采樣數(shù)據(jù)與以前的采樣數(shù)據(jù)重疊或不重疊
En表示樣本的有效數(shù)量(期望體積)。為了簡(jiǎn)化問(wèn)題,不考慮部分重疊的情況。也就是說(shuō),一個(gè)新采樣的數(shù)據(jù)點(diǎn)只能以兩種方式與之前的采樣數(shù)據(jù)交互:完全在之前的采樣數(shù)據(jù)集中,概率為p,或完全在原來(lái)的數(shù)據(jù)集之外,的概率為1- p。
有效數(shù)字:En = (1?β^n)/(1?β),其中,β = (N? 1)/N,這個(gè)命題可以用數(shù)學(xué)歸納法證明。當(dāng)E1 = 1時(shí),不存在重疊,E1 =(1?β^1)/(1?β) = 1成立。假設(shè)已經(jīng)有n?1個(gè)樣本,并且即將對(duì)第n個(gè)樣本進(jìn)行采樣,現(xiàn)在先前采樣數(shù)據(jù)的期望體積為En ?1,而新采樣的數(shù)據(jù)點(diǎn)與先前采樣點(diǎn)重疊的概率為 p = E(n?1)/N。因此,第n個(gè)實(shí)例采樣后的期望體積為:
此時(shí):
我們有:
上述命題表明有效樣本數(shù)是n的指數(shù)函數(shù)。超參數(shù)β∈[0,1)控制En隨著n的增長(zhǎng)有多快。
3. 類別平衡 Loss (CB Loss)
類別平衡(CB)loss可以寫成:
其中,ny是類別y的ground-truth的數(shù)量。β = 0對(duì)應(yīng)沒(méi)有重新加權(quán), β → 1對(duì)應(yīng)于用反向頻率進(jìn)行加權(quán)。
提出的有效樣本數(shù)的新概念使我們能夠使用一個(gè)超參數(shù)β來(lái)平滑地調(diào)整無(wú)重權(quán)和反向類頻率重權(quán)之間的類平衡項(xiàng)。
所提出的類平衡項(xiàng)是模型不可知的和損失不可知的,因?yàn)樗?dú)立于損失函數(shù)L和預(yù)測(cè)類概率p的選擇。
給定一個(gè)標(biāo)號(hào)為y的樣本,該樣本的softmax交叉熵(CE)損失記為:
假設(shè)類y有ny個(gè)訓(xùn)練樣本,類平衡(CB)softmax交叉熵?fù)p失為:
當(dāng)對(duì)多類問(wèn)題使用sigmoid函數(shù)時(shí),網(wǎng)絡(luò)的每個(gè)輸出都執(zhí)行一個(gè)one-vs-all分類,以預(yù)測(cè)目標(biāo)類在其他類中的概率。在這種情況下,Sigmoid不假定類之間的互斥性。由于每個(gè)類都被認(rèn)為是獨(dú)立的,并且有自己的預(yù)測(cè)器,所以sigmoid將單標(biāo)簽分類和多標(biāo)簽預(yù)測(cè)統(tǒng)一起來(lái)。這是一個(gè)很好的屬性,因?yàn)楝F(xiàn)實(shí)世界的數(shù)據(jù)通常有多個(gè)語(yǔ)義標(biāo)簽。sigmoid交叉熵(CE)損失可以寫成:
類平衡(CB) sigmoid交叉熵?fù)p失為:
Focal loss (FL)是在RetinaNet中提出的,可以減少分類很好的樣本的損失,聚焦于困難的樣本。
類別平衡的 (CB) Focal Loss為:
4. 實(shí)驗(yàn)結(jié)果
4.1. 數(shù)據(jù)集
用于評(píng)估類平衡損失有效性的數(shù)據(jù)集
試驗(yàn)了CIFAR-10和CIFAR-100的5個(gè)不平衡系數(shù)分別為10、20、50、100和200的長(zhǎng)尾版本。iNaturalist 和ILSVRC是天然的類別不平衡數(shù)據(jù)集。
在人工創(chuàng)建的具有不同不平衡因子的長(zhǎng)尾CIFAR-100數(shù)據(jù)集中,每類訓(xùn)練樣本的個(gè)數(shù)
上面顯示了每個(gè)類具有不同不平衡因素的圖像數(shù)量。
4.2. CIFAR 數(shù)據(jù)集
ResNet-32在長(zhǎng)尾CIFAR-10和CIFAR-100測(cè)試集上用不同的損失函數(shù)訓(xùn)練的分類錯(cuò)誤率
loss類型的超參數(shù)搜索空間為{softmax, sigmoid, focal}, [focal loss]的超參數(shù)搜索空間為β∈{0.9,0.99,0.999,0.9999},γ∈{0.5,1.0,2.0}。在CIFAR-10上,最佳的β一致為0.9999。但在CIFAR-100上,不同不平衡因子的數(shù)據(jù)集往往有不同且較小的最優(yōu)β。
有和沒(méi)有類平衡項(xiàng)時(shí)的分類錯(cuò)誤率
在CIFAR-10上,根據(jù)β = 0.9999重新加權(quán)后,有效樣本數(shù)與樣本數(shù)接近。這意味著CIFAR-10的最佳重權(quán)策略與逆類頻率重權(quán)類似。在CIFAR-100上,使用較大的β的性能較差,這表明用逆類頻率重新加權(quán)不是一個(gè)明智的選擇,需要一個(gè)更小的β,具有更平滑的跨類權(quán)重。例如,一個(gè)特定鳥類物種的獨(dú)特原型數(shù)量應(yīng)該小于一個(gè)一般鳥類類的獨(dú)特原型數(shù)量。由于CIFAR-100中的類比CIFAR-10更細(xì)粒度,因此CIFAR-100的N比CIFAR-10小。
4.3. 大規(guī)模數(shù)據(jù)集
在所有數(shù)據(jù)集驗(yàn)證集上,使用不同損失函數(shù)訓(xùn)練的大規(guī)模數(shù)據(jù)集上的Top-1和Top-5分類錯(cuò)誤率
使用了類平衡的Focal Loss,因?yàn)樗哂懈蟮撵`活性,并且發(fā)現(xiàn)β = 0.999和γ = 0.5在所有數(shù)據(jù)集上都獲得了合理的良好的性能。值得注意的是,使用了類別平衡的Focal Loss來(lái)代替Softmax交叉熵,ResNet-50能夠達(dá)到和ResNet-152相應(yīng)的性能。
ILSVRC 2012(左)和iNaturalist 2018(右)的ResNet-50訓(xùn)練曲線
以上數(shù)字顯示類平衡的Focal Loss損失經(jīng)過(guò)60個(gè)epochs的訓(xùn)練后,開始顯示其優(yōu)勢(shì)。
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。