今天在這裡推薦的是清華大學博士生開源的人臉Action Unit(表情動作單元)識別的翹楚之作 AU R-CNN。
論文全名:《AU R-CNN: Encoding Expert Prior Knowledge into R-CNN for Action Unit Detection》
該識別方法創造性的將關鍵點landmark以及AU的專家先驗知識融合到R-CNN模型裡。從而在BP4D資料庫的3-fold的F1 score測試標準上達到了史無前例的63.1%。超越了所有目前最新的ICCV和CVPR論文。 由於該文章發表在一個期刊Neurocomputing(IF 4.07,JCR Q1分割槽,CAS二區,和PR接近),因此關注度不如CVPR上大,但是縱觀該文,最值得注意的是實驗部分很充足,各種模組的組合和對比實驗都做了,充分證明了將物體檢測融合進表情動作識別這一方法的有效性。
文章:
程式碼已經開源: