騰訊58篇論文入選CVPR 2019,兩年增長超200%

AI科技大本營發表於2019-03-08

640?wx_fmt=png

 

全球計算機視覺頂級會議 IEEE CVPR 2019(Computer Vision and Pattern Recognition,即IEEE國際計算機視覺與模式識別會議) 即將於6月在美國長灘召開。本屆大會總共錄取來自全球論文1299篇。中國團隊表現不俗,此次,騰訊公司有超過58篇論文被本屆CVPR大會接收,其中騰訊優圖實驗室25篇、騰訊AI Lab 33篇,相比過去兩年成績大幅提升。


作為計算機視覺領域裡的頂級會議,CVPR 2019錄取論文代表了計算機視覺領域在2019年最新的科技水平以及未來發展潮流。CVPR官網顯示,今年有超過5165篇的大會論文投稿,最終錄取1299篇。這些錄取的最新科研成果,涵蓋了計算機視覺領域各項前沿工作。2019年騰訊公司有超過58篇論文被本屆CVPR大會接收,而2018年總計被收錄31篇,2017年被收錄18篇。2019年的錄取數量相比前兩年都有大幅提高,成績斐然。


騰訊此次被收錄的論文涵蓋深度學習優化原理、視覺對抗學習、人臉建模與識別、視訊深度理解、行人重識別、人臉檢測等熱門及前沿領域。展示了騰訊在計算機視覺領域強大的人才儲備、科研底蘊和創新能力。這些新穎的計算機視覺演算法不僅有著豐富的應用場景,使得更多的計算機視覺演算法能應用於日常生活之中,還為後續研究提供了可貴的經驗和方向。


以下介紹部分騰訊優圖入選CVPR 2019的論文:


Unsupervised Person Re-identification by Soft Multilabel Learning (軟多標籤學習的無監督行人重識別


640?wx_fmt=png


相對於有監督行人重識別(RE-ID)方法,無監督RE-ID因其更佳的可擴充套件性受到越來越多的研究關注,然而非交疊相機檢視下,標籤對(pairwise label缺失導致學習鑑別性的資訊仍然是非常具有挑戰性的工作。為了克服這個問題,我們提出了一個用於無監督RE-ID的標籤學習深度模型。該想法通過將未標註的人與輔助域的一組已知參考進行比較為未標註者標記標籤類似實值標籤似然向量)。基於視覺特徵以及未標註目標對的軟性標籤的相似一致性,我們提出了軟多標籤引導hard negative mining方法去學習一種區分性嵌入表示(discriminative embedding。由於大多數目標對來自交叉視角,我們提出了交叉視角下的軟性多標籤一致性學習方法,以保證不同視角下標籤的一致性。為實現高效的軟標籤學習,引入了參考代理學習(reference agent learning)。我們的方法在Market-1501和DukeMTMC-reID上進行了評估,顯著優於當前好的無監督RE-ID方法。

 

Visual Tracking via Adaptive Spatially-Regularized Correlation Filters(基於自適應空間加權相關濾波的視覺跟蹤研究


640?wx_fmt=png


本文提出自適應空間約束相關濾波演算法來同時優化濾波器權重及空間約束矩陣。首先,本文所提出的自適應空間約束機制可以高效地學習得到一個空間權重以適應目標外觀變化,因此可以得到更加魯棒的目標跟蹤結果。其次,本文提出的演算法可以通過交替迭代演算法來高效進行求解,基於此,每個子問題都可以得到閉合的解形式。再次,本文所提出的跟蹤器使用兩種相關濾波模型來分別估計目標的位置及尺度,可以在得到較高定位精度的同時有效減少計算量。大量的在綜合資料集上的實驗結果證明了本文所提出的演算法可以與現有的先進演算法取得相當的跟蹤結果,並且達到了實時的跟蹤速度。

 

Adversarial Attacks Beyond the Image Space(超越影像空間的對抗攻擊


生成對抗例項是理解深度神經網路工作機理的重要途徑。大多數現有的方法都會在影像空間中產生擾動,即獨立修改影像中的每個畫素。在本文中,我們更為關注與三維物理性質(如旋轉和平移、照明條件等)有意義的變化相對應的對抗性示例子集。可以說,這些對抗方法提出了一個更值得關注的問題,因為他們證明簡單地干擾現實世界中的三維物體和場景也有可能導致神經網路錯分例項。    


在分類和視覺問答問題的任務中,我們在接收2D輸入的神經網路前邊增加一個渲染模組來擴充現有的神經網路。我們的方法的流程是:先將3D場景(物理空間)渲染成2D圖片(圖片空間),然後經過神經網路把他們對映到一個預測值(輸出空間)。這種對抗性干擾方法可以超越影像空間。在三維物理世界中有明確的意義。雖然影像空間的對抗攻擊可以根據畫素反照率的變化來解釋,但是我們證實它們不能在物理空間給出很好的解釋,這樣通常會具有非區域性效應。但是在物理空間的攻擊是有可能超過影像空間的攻擊的,雖然這個比影像空間的攻擊更難,體現在物理世界的攻擊有更低的成功率和需要更大的干擾。

 

Learning Context Graph for Person Search(基於上下文圖網路的行人檢索模型


640?wx_fmt=png


本文由騰訊優圖實驗室與上海交通大學主導完成。


近年來,深度神經網路在行人檢索任務中取得了較大的成功。但是這些方法往往只基於單人的外觀資訊,其在處理跨攝像頭下行人外觀出現姿態變化、光照變化、遮擋等情況時仍然比較困難。本文提出了一種新的基於上下文資訊的行人檢索模型。所提出的模型將場景中同時出現的其他行人作為上下文資訊,並使用卷積圖模型建模這些上下文資訊對目標行人的影響。我們在兩個著名的行人檢索資料集CUHK-SYSU和PRW的兩個評測維度上重新整理了當時的世界紀錄,取得了top1的行人檢索結果。

 

Underexposed Photo Enhancement using Deep Illumination Estimation(基於深度學習優化光照的暗光下的影像增強


640?wx_fmt=png

 

隨著智慧手機的普及,照片分享成為網路中非常流行的社交方式。然而,受外部光照條件影響(如背光、低光照等)及使用者拍照技術所限,實際中拍攝得到的照片通常會出現欠曝光現象。由於欠曝光影像通常能見度較差、顏色暗淡且視覺上不友好,因而難以有效傳達使用者期望且應用場景有限。為改善此類影像質量,欠曝光影像增強應運而生。然而,該問題由於同時涉及對影像多種外觀因素(如亮度,對比度,飽和度等)的編輯,且並沒有統一客觀的優化目標而異常具有挑戰性。現有方法通常無法生成視覺上令人愉悅的結果。


本文介紹了一種新型端到端深度神經網路,用於增強曝光不足的照片。不同於現有方法直接學習影像到影像的對映,我們引入影像光照作為中間變數,將輸入影像與預期增強結果相關聯,以增強網路從專家修飾的輸入/輸出影像對中學習複雜攝影調整的能力。基於該思想,我們制定了一個集光照約束和先驗於一體的損失函式,同時構建了一個包含3000張曝光不足影像對的新資料集,並在該資料集上訓練網路,賦予其對於不同照明條件欠曝光影像的修復能力。通過這些方式,我們的網路能夠快速恢復出具有清晰細節,鮮明對比度和自然色彩的增強結果。我們在基準資料集MIT-Adobe FiveK和我們的新資料集進行了大量實驗和測試,結果表明我們的網路可以更有效地處理困難影像,且生成的結果更被使用者青睞。


Homomorphic Latent Space Interpolation for Unpaired Image-to-image Translation(基於同態隱空間插值的不成對圖片到圖片轉換


生成對抗網路在不成對的影像到影像轉換中取得了巨大成功。迴圈一致性允許對沒有配對資料的兩個不同域之間的關係建模。在本文中,我們提出了一個替代框架,作為潛在空間插值的擴充套件,在影像轉換中考慮兩個域之間的中間部分。該框架基於以下事實:在平坦且光滑的潛在空間中,存在連線兩個取樣點的多條路徑。正確選擇插值的路徑允許更改某些影像屬性,而這對於在兩個域之間生成中間影像是非常有用的。我們還表明該框架可以應用於多域和多模態轉換。廣泛的實驗表明該框架對各種任務具有普遍性和適用性。

 

X2CT-GAN: Reconstructing CT from Biplanar X-Rays with Generative Adversarial Networks(基於生成對抗網路的雙平面X光至CT生成系統


當下CT成像可以提供三維全景視角幫助醫生了解病人體內的組織器官的情況,來協助疾病的診斷。但是CT成像與X光成像相比,給病人帶來的輻射劑量較大,並且費用成本較高。 傳統CT影像的三維重建過程中圍繞物體中心旋轉採集並使用了大量的X光投影,這在傳統的X光機中也是不能實現的。在這篇文章中,我們創新性的提出了一種基於對抗生成網路的方法,只使用兩張正交的二維X光圖片來重建逼真的三維CT影像。核心的創新點包括增維生成網路,多視角特徵融合演算法等。我們通過實驗與量化分析,展示了該方法在二維X光到三維CT重建上大大優於其他對比方法。通過視覺化CT重建結果,我們也可以直觀的看到該方法提供的細節更加逼真。在實際應用中, 我們的方法在不改變現有X光成像流程的前提下,可以給醫生提供額外的類CT的三維影像,來協助他們更好的診斷。

相關文章