原文地址:Bringing Old Photos Back to Life
原文作者:Ziyu Wan
譯者 & 校正:HelloGitHub-小魚乾 & 鴨鴨
寫在前面
在 GitHub 熱點趨勢 Vol.046 中,HG 介紹過一個微軟開源的 AI 工具——Bringing-Old-Photos-Back-to-Life,它可以讓破損、殘舊的圖片煥發新生,在本週更是獲得近 3k star。而本文則是專案團隊成員 Ziyu Wan 釋出於 Hacker News 的專案介紹,Enjoy it~
概述
我們打算通過深度學習的方法來修復老化嚴重的舊照片。與傳統的監督式學習 supervised learning 的修復任務不同,真實照片的老化更為複雜,合成影像和真實舊照片之間的領域差距 domain gap 使得網路無法泛化。因此,我們提出了一種利用真實照片和大量合成影像對的新型三重域翻譯網路。具體來說,我們訓練了兩個變分自編碼器 (VAE),分別將舊照片和乾淨照片轉換為兩個潛在空間。通過合成配對資料來學習兩個潛在空間之間的轉換。因為在緊湊的潛在空間中,domain gap 是封閉的,所以這種翻譯網路可以很好地泛化為真實照片。
此外,為了解決混雜在舊照片中的多個退化問題,我們設計了一個帶有 partial nonlocal block 的全域性分支,用於處理結構性缺陷,如:劃痕、塵點,和一個區域性分支,用於處理非結構性缺陷,如:噪點、模糊。兩個分支在潛在空間融合,提高從多個退化問題中恢復舊照片的能力。該方法在相片修復的視覺質量方面優於現有的方法。
架構全覽
- 我們首先訓練兩個變分自編碼器 VAE: VAE1 用於真實照片 r ∈ R 和合成影像 x ∈ X,通過聯合訓練一個對抗判別器縮小它們的 domain gap;對乾淨影像 y ∈ Y 進行 VAE2 訓練。利用 VAE 將影像轉換到緊湊的潛在空間。
- 我們瞭解了在緊湊潛在空間將損壞的影像恢復到帶 partial non-local block 的乾淨照片的對映。
對比圖
更多修復細節
近距離圍觀
團隊成員 Ziyu Wan 對 Bringing-Old-Photos-Back-to-Life 的介紹已經翻譯完畢,感興趣的小夥伴可以去把玩下,專案地址:
https://github.com/microsoft/Bringing-Old-Photos-Back-to-Life
最後,歡迎優秀的你加入 HelloGitHub 的「譯文亦舞」系列,讓你的才華舞動起來!把優秀的文章分享給更多的人。要求:
- 平時瀏覽 GitHub、開源、程式設計、程式設計師等英文資訊和文章
- 想把自己閱讀到優秀的英文文章分享給更多的人
- 翻譯準確但不是直翻或機翻
- 保證每月至少翻譯或校正 1 篇高質量文章
- 瞭解 Markdown 和排版規則
- 聯絡微信:xueweihan (備註:翻譯)