作者 | 周強
來源 | 我愛計算機視覺( ID:aicvml)
【導語】近日,華中科技大學發表了一篇新論文《IoU-aware Single-stage Object Detector for Accurate Localization》,在此論文中作者提出了一種非常簡單的目標檢測定位改進方法,通過預測目標候選包圍框與真實目標標註的IoU(交併比),並基於此與分類分數的乘積作為檢測置信度,用於NMS(非極大抑制)和COCO AP計算,顯著提高了目標檢測的定位精度。

作者均來自華中科技大學,並稱程式碼將開源,不過目前還未公佈地址。
論文地址:
https://ar xiv.org/pdf/1912.05992.pdf
在目標檢測問題中,模型需要輸出目標分類分數和與其對應的目標定位的包圍框,在以往的模型中,經常使用分類分數作為目標定位準不準的置信度,並基於此對大量候選目標包圍框NMS,現在越來越多的工作發現,分類分數高並不能保證定位精度高。
作者認為IoU是直接反應定位準不準的直接指標,可以在目標檢測模型的分類和定位任務的基礎上新增IoU預測的任務,可以在一定程度上反應定位置信度。
-
作者是在著明的一階段目標檢測演算法RetinaNet基礎上做的改進,如下圖:

在包圍框迴歸分支新增一個並行的預測IoU的任務。
-
相關的損失函式數學描述:

作者將分類分數和預測得到的IoU相乘,這個指標既反應了是不是這個目標,又反應了該位置和真實目標的可能的交併比,認為它是更加精確的檢測置信度:

公式中引數 α 用於控制兩者的貢獻大小。
-
實驗結果
作者在COCO test-dev上與其他State-of-the-art演算法的結果比較:

可見,相比於基線RetinaNet,取得了顯著的AP提升,提升在1.0%∼1.6%之間。
在PASCAL VOC資料集上與RetinaNet的比較結果:

同樣取得了顯著的AP提升,AP 提升在1.1%∼2.2%之間。
這篇文章儘管思路比較簡單,但改進還是明顯的,希望對其他目標檢測演算法也有效,期待有更多實驗結果出來。