華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

AIBigbull2050發表於2019-12-19
2019-12-16 19:43:33

作者 | 周強

來源 | 我愛計算機視覺( ID:aicvml)

【導語】近日,華中科技大學發表了一篇新論文《IoU-aware Single-stage Object Detector for Accurate Localization》,在此論文中作者提出了一種非常簡單的目標檢測定位改進方法,透過預測目標候選包圍框與真實目標標註的IoU(交併比),並基於此與分類分數的乘積作為檢測置信度,用於NMS(非極大抑制)和COCO AP計算,顯著提高了目標檢測的定位精度。

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

作者均來自華中科技大學,並稱程式碼將開源,不過目前還未公佈地址。

論文地址:

xiv.org/pdf/1912.05992.pdf

在目標檢測問題中,模型需要輸出目標分類分數和與其對應的目標定位的包圍框,在以往的模型中,經常使用分類分數作為目標定位準不準的置信度,並基於此對大量候選目標包圍框NMS,現在越來越多的工作發現,分類分數高並不能保證定位精度高。

作者認為IoU是直接反應定位準不準的直接指標,可以在目標檢測模型的分類和定位任務的基礎上新增IoU預測的任務,可以在一定程度上反應定位置信度。

  • 作者是在著明的一階段目標檢測演算法RetinaNet基礎上做的改進,如下圖:

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

在包圍框迴歸分支新增一個並行的預測IoU的任務。

  • 相關的損失函式數學描述:

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

作者將分類分數和預測得到的IoU相乘,這個指標既反應了是不是這個目標,又反應了該位置和真實目標的可能的交併比,認為它是更加精確的檢測置信度:

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

公式中引數 α 用於控制兩者的貢獻大小。

  • 實驗結果

作者在COCO test-dev上與其他State-of-the-art演算法的結果比較:

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

可見,相比於基線RetinaNet,取得了顯著的AP提升,提升在1.0%∼1.6%之間。

在PASCAL VOC資料集上與RetinaNet的比較結果:

華科提出目標檢測新方法:基於IoU-aware的定位改進,簡單又有效

同樣取得了顯著的AP提升,AP 提升在1.1%∼2.2%之間。

這篇文章儘管思路比較簡單,但改進還是明顯的,希望對其他目標檢測演算法也有效,期待有更多實驗結果出來。






來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2669400/,如需轉載,請註明出處,否則將追究法律責任。

相關文章