GFL: Generalized Focal Loss

MSTK發表於2021-11-13

現有的模型存在兩個問題:

(1)classification score和quality score(包括IoU和centerness score)訓練和推理時不一致.訓練的時候這兩個score是分別訓練的,推理的時候將這兩個score相乘作為NMS的依據,如下圖(a)所示.

這有可能造成一些錯誤,如下圖所示,在推理過程中,某些負例的cls score很低,但是IoU score又很高,兩者相乘得到的乘積比較大,在NMS的時候有可能排在一些正例的前面,從而降低了mAP.

針對這個問題,解決的方法是在訓練時就將classification score和quality score聯合起來訓練,此時分類標籤不再是1,而是一個0~1之間的數,也就是IoU或者centerness score.此時將傳統的Focal Loss改成了Quality Focal Loss(QFL):

 

其中y是標籤label(0~1之間的1個數),delta是預測值.

(2)由於阻擋,影子,模糊等原因,有些GT object的邊界不清晰,GT標籤不可信,此時用Dirac distribution來處理就受限,解決的辦法是採用General distribution,用平坦的分佈來表明不清楚和模糊的邊界,如下圖所示.

把傳統的邊界迴歸問題轉化為分類問題,把連續的目標值y的取值範圍[y0,yn]離散化為[y0,y1,...,yi,yi+1,...,yn-1,yn],也就是把y分成n+1個單位,也就相當於n+1個類,離y最近的兩個類yi+1和yi作為目標,計算下面的Distribution Focal Loss(DFL):

Generalized Focal Loss(GFL)包括了QFL和DFL兩部分,如下圖所示.

 通過實驗,證明了GFL提高了mAP.

相關文章