獨家 | 使用TensorFlow 2創(chuàng)建自定義損失函數(shù)
作者:Arjun Sarkar
翻譯:陳之炎
校對:歐陽錦
神經(jīng)網(wǎng)絡(luò)利用訓(xùn)練數(shù)據(jù),將一組輸入映射成一組輸出,它通過使用某種形式的優(yōu)化算法,如梯度下降、隨機梯度下降、AdaGrad、AdaDelta等等來實現(xiàn),其中最新的算法包括Adam、Nadam或RMSProp。梯度下降中的“梯度”是指誤差梯度。每次迭代之后,網(wǎng)絡(luò)將其預(yù)測輸出與實際輸出進行比較,然后計算出“誤差”。
通常,對于神經(jīng)網(wǎng)絡(luò),尋求的是將誤差最小化。將誤差最小化的目標函數(shù)通常稱之為成本函數(shù)或損失函數(shù),由“損失函數(shù)”計算出的值稱為“損失”。在各種問題中使用的典型損失函數(shù)有:
均方誤差;
均方對數(shù)誤差;
二元交叉熵;
分類交叉熵;
稀疏分類交叉熵。
Tensorflow已經(jīng)包含了上述損失函數(shù),直接調(diào)用它們即可,如下所示:
1. 將損失函數(shù)當作字符串進行調(diào)用
model.compile (loss = ‘binary_crossentropy’,optimizer = ‘a(chǎn)dam’, metrics = [‘a(chǎn)ccuracy’])
2. 將損失函數(shù)當作對象進行調(diào)用
from tensorflow.keras.losses importmean_squared_error model.compile(loss = mean_squared_error,optimizer=’sgd’)
將損失函數(shù)當作對象進行調(diào)用的優(yōu)點是可以在損失函數(shù)中傳遞閾值等參數(shù)。
from tensorflow.keras.losses import mean_squared_error model.compile (loss=mean_squared_error(param=value),optimizer = ‘sgd’)
利用現(xiàn)有函數(shù)創(chuàng)建自定義損失函數(shù):
利用現(xiàn)有函數(shù)創(chuàng)建損失函數(shù),首先需要定義損失函數(shù),它將接受兩個參數(shù),y_true(真實標簽/輸出)和y_pred(預(yù)測標簽/輸出)。
def loss_function(y_true, y_pred): ***some calculation*** return loss
創(chuàng)建均方誤差損失函數(shù) (RMSE):
定義損失函數(shù)名稱-my_rmse。目的是返回目標(y_true)與預(yù)測(y_pred)之間的均方誤差。
RMSE的公式為:
誤差:真實標簽與預(yù)測標簽之間的差異。
sqr_error:誤差的平方。
mean_sqr_error:誤差平方的均值。
sqrt_mean_sqr_error:誤差平方均值的平方根(均方根誤差)。
創(chuàng)建Huber損失函數(shù):
圖2:Huber損失函數(shù)(綠色)和平方誤差損失函數(shù)(藍色)(來源:Qwertyus— Own work,CCBY-SA4.0,https://commons.wikimedia.org/w/index.php?curid=34836380)
Huber損失函數(shù)的計算公式:
在此處,δ是閾值,a是誤差(將計算出a,即實際標簽和預(yù)測標簽之間的差異)。
當|a|≤δ時,loss = 1/2*(a)2
當 |a|>δ時,loss = δ(|a|—(1/2)*δ)
源代碼:
詳細說明:
首先,定義一個函數(shù)—— my huber loss,它需要兩個參數(shù):y_true和y_pred,
設(shè)置閾值threshold = 1。
計算誤差error a = y_true-y_pred。接下來,檢查誤差的絕對值是否小于或等于閾值,is_small_error返回一個布爾值(真或假)。
當|a|≤δ時,loss= 1/2*(a)2,計算small_error_loss, 誤差的平方除以2。否則,當|a| >δ時,則損失等于δ(|a|-(1/2)*δ),用big_error_loss來計算這個值。
最后,在返回語句中,首先檢查is_small_error是真還是假,如果它為真,函數(shù)返回small_error_loss,否則返回big_error_loss,使用tf.where來實現(xiàn)。
可以使用下述代碼來編譯模型:
在上述代碼中,將閾值設(shè)為1。
如果需要調(diào)整超參數(shù)(閾值),并在編譯過程中加入一個新的閾值的話,必須使用wrapper函數(shù)進行封裝,也就是說,將損失函數(shù)封裝成另一個外部函數(shù)。在這里需要用到封裝函數(shù)(wrapper function),因為損失函數(shù)在默認情況下只能接受y_true和y_pred值,而且不能向原始損失函數(shù)添加任何其他參數(shù)。
使用封裝后的Huber損失函數(shù)
封裝函數(shù)的源代碼:
此時,閾值不是硬編碼,可以在模型編譯過程中傳遞該閾值。
使用類實現(xiàn)Huber損失函數(shù)(OOP)
其中,MyHuberLoss是類名稱,隨后從tensorflow.keras.losses繼承父類“Loss”, MyHuberLoss繼承了Loss類,之后可以將MyHuberLoss當作損失函數(shù)來使用。
__init__ 初始化該類中的對象。執(zhí)行類實例化對象時調(diào)用函數(shù),init函數(shù)返回閾值,調(diào)用函數(shù)得到y(tǒng)_true和y_pred參數(shù),將閾值聲明為一個類變量,可以給它賦一個初始值。
在__init__函數(shù)中,將閾值設(shè)置為self.threshold。在調(diào)用函數(shù)中,self.threshold引用所有的閾值類變量。在model.compile中使用這個損失函數(shù):
創(chuàng)建對比性損失(用于Siamese網(wǎng)絡(luò)):
Siamese網(wǎng)絡(luò)可以用來比較兩幅圖像是否相似,Siamese網(wǎng)絡(luò)使用的損失函數(shù)為對比性損失。
在上文的公式中,Y_true是關(guān)于圖像相似性細節(jié)的張量,如果圖像相似,則為1,如果圖像不相似,則為0。
D是圖像對之間的歐氏距離的張量。邊際為一個常量,用它來設(shè)置將圖像區(qū)別為相似或不同的最小距離。如果為Y_true=1,則方程的第一部分為D2,第二部分為0,所以,當Y_true接近1時,D2的權(quán)重則更重。
如果Y_true=0,則方程的第一部分變?yōu)?,第二部分會產(chǎn)生一些結(jié)果,這給了最大項更多的權(quán)重,給了D平方項更少的權(quán)重,此時,最大項在損失計算中占了優(yōu)勢。
使用封裝器函數(shù)實現(xiàn)對比損失函數(shù):
結(jié)論
在Tensorflow中沒有的損失函數(shù)都可以利用函數(shù)、包裝函數(shù)或類似的類來創(chuàng)建。
原文標題:
Creating custom Loss functionsusing TensorFlow 2
原文鏈接:
https://towardsdatascience.com/creating-custom-loss-functions-using-tensorflow-2-96c123d5ce6c
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。
負離子發(fā)生器相關(guān)文章:負離子發(fā)生器原理 離子色譜儀相關(guān)文章:離子色譜儀原理