ECCV2018 論文簡析 Oral_1

hitrjj發表於2018-09-06

ECCV 2018 Oral_1

ECCV2018

本文將對ECCV2018 中的Oral 論文進行簡要概述, 並持續更新中。


Convolutional Networks with Adaptive Computation Graphs

提出了自適應計算圖,每個層中包含一個門函式來控制是否執行/跳過這一層
這裡寫圖片描述
門控單元如下圖所示:
這裡寫圖片描述
第一部分用於估計門開啟的概率、第二部分描繪出估計概率的簡單形式。
:D

通過基於序列模型優化的策略來實現卷積神經網路結構的高效學習,超過了強化學習、進化演算法的效率。
下圖是這種演算法學習出的網路結構:
這裡寫圖片描述
在進行結構搜尋提高模型複雜度的同時,學習出代理模型(surrogate)來指導結構空間的搜尋。下圖描述了這種搜尋過程:
ECCV2018 論文簡析 Oral_1
這篇論文也構成谷歌AutoML的基礎,並由李佳李飛飛等作為共同作者。
:D

Diverse Image-to-Image Translation via Disentangled Representations

ECCV2018 論文簡析 Oral_1
圖到圖翻譯的目標是學習出兩個不同視覺域中的對映,但目前面臨兩個困難:
- 1).缺乏配對的訓練圖片對兒;
- 2).單一輸入可能面臨著多種可能的輸出。
研究人員通過了解耦了多樣性輸出的表達和配對訓練圖片見的關係來解決這個問題。首先通過將圖片嵌入兩個空間來實現多樣性:一個域不變的空間開捕捉不同域中共有的內容資訊,另一個是表達特殊域特徵屬性空間。模型從輸出中抽取編碼的內容特徵,並從特徵空間中抽取屬性向量。

這裡寫圖片描述
上圖是與CycleGan以及UNIT相比較,這種方法將隱空間解耦成了共享的內容空間和各自域的屬性空間

為了處理不匹配的訓練資料,研究人員在解耦表達的基礎上引入了交叉迴圈一致性損失,結果顯示模型可以在多種任務上生成豐富真實的影象,而不依賴與配對訓練影象。
這裡寫圖片描述

通過內容對抗損失和交叉迴圈一致損失,模型可以學習出不同域之間的多模態對映。同時在解耦表達的幫助下,這種方法可以基於隨機屬性或給定屬性條件來生成輸出影象。
作者Hsin-Ying Lee等;
project & code & code2
:D


Lifting Layers: Analysis and Applications
Learning with Biased Complementary Labels
Light Structure from Pin Motion: Simple and Accurate Point Light Calibration for Physics-based Modeling
Programmable Light Curtains
Learning to Separate Object Sounds by Watching Unlabeled Video
Coded Two-Bucket Cameras for Computer Vision & authorr
Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone Image
End-to-End Joint Semantic Segmentation of Actors and Actions in Video
Learning-based Video Motion Magnification
Massively Parallel Video Networks
DeepWrinkles: Accurate and Realistic Clothing Modeling
Learning Discriminative Video Representations Using Adversarial Perturbations