h.264又out了,英偉達老黃用神經網路代替傳統的h.264影片編解碼器 - petapixel
NVIDIA Research發明了一種使用AI的方法,可以顯著減少視訊通話頻寬,同時提高質量。研究人員已經取得了令人矚目的成果:透過用神經網路代替傳統的h.264影片編解碼器,他們設法將視訊通話所需的頻寬減少了一個數量級。在一個示例中,所需的資料速率從97.28 KB /幀下降到僅0.1165 KB /幀-降至所需頻寬的0.1%。
AI輔助視訊會議的機制非常簡單。該技術透過用神經資料代替傳統的完整影片幀而起作用。通常,視訊通話透過向接收者傳送h.264編碼的幀來工作,而這些幀的資料量非常大。在AI輔助的視訊通話中,首先,傳送方傳送呼叫方的參考影像。然後,它不傳送畫素打包的影像流,而是在影像上圍繞眼睛,鼻子和嘴巴傳送特定的參考點。
然後,接收方的生成對抗網路(或GAN,一種神經網路)將參考影像與關鍵點結合使用,以重建後續影像。由於關鍵點比全畫素影像小得多,因此傳送的資料少得多,因此Internet連線速度可能會慢很多,但仍可以提供清晰而實用的影片聊天功能。
在研究人員的最初示例中,他們表明,使用傳統方法和新神經網路方法,快速的Internet連線都可以產生幾乎相同的流質量。但是,最令人印象深刻的是他們的後續示例,其中使用傳統方法的網際網路速度顯示出質量顯著下降,而神經網路能夠產生極其清晰且無偽影的影片源。
即使受試者戴著口罩,眼鏡,耳機或帽子,神經網路也可以工作。
使用這種神經網路將對現代勞動力產生巨大的影響,這些勞動力不僅將緩解網路壓力,而且還為使用者提供遠端工作時的更多自由。但是,由於這項技術的工作方式,幾乎肯定會對其如何部署產生疑問,並導致“深層偽造”的問題變得更加可信和難以發現。
相關文章
- H.264碼流結構 (H.264 Data Structure)Struct
- C++實現RTMP協議傳送H.264編碼及AAC編碼的直播軟體開發音影片C++協議
- [譯] RNN 迴圈神經網路系列 3:編碼、解碼器RNN神經網路
- 第二章 編譯FFmpeg並開啟H.264編碼編譯
- H.264中的幀
- 英偉達:黃仁勳的個人安保費用約為70萬美元
- 理解深度學習:神經網路的雙胞胎兄弟-自編碼器(上)深度學習神經網路
- 英偉達開源福利:影片生成、機器人都能用的SOTA tokenizer機器人
- 從傳統的神經元網路轉變到深度學習網路深度學習
- 雲影片監控中的高效影片轉碼策略:EasyCVR平臺H.265自動轉碼H.264能力解析VR
- 普適注意力:用於機器翻譯的2D卷積神經網路,顯著優於編碼器-解碼器架構卷積神經網路架構
- 神經網路入門篇之深層神經網路:詳解前向傳播和反向傳播(Forward and backward propagation)神經網路反向傳播Forward
- 吳恩達機器學習系列11:神經網路吳恩達機器學習神經網路
- 乾貨 | 網路影片監控伺服器的數字音影片編碼技術詳解!伺服器
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 【神經網路篇】--RNN遞迴神經網路初始與詳解神經網路RNN遞迴
- 詳解神經網路中反向傳播和梯度下降神經網路反向傳播梯度
- 勒索老黃未果!黑客公佈英偉達核心原始碼,超40萬個檔案、75GB機密資料黑客原始碼
- 吳恩達機器學習筆記——八、神經網路吳恩達機器學習筆記神經網路
- 神經網路啟用函式=生物轉換器?神經網路函式
- 英偉達又賺到了!FlashAttention3來了:H100利用率飆升至75%
- 吳恩達神經網路-第一週吳恩達神經網路
- SVC(Scalable Video Coding) for H.264資源整理IDE
- H.264 / MPEG-4 AVC & 巨集塊數
- H.264學習筆記——基本概念筆記
- numpy實現神經網路-反向傳播神經網路反向傳播
- 神經網路:numpy實現神經網路框架神經網路框架
- 【人工神經網路基礎】為什麼神經網路選擇了“深度”?神經網路
- 【DL筆記4】神經網路詳解,正向傳播和反向傳播筆記神經網路反向傳播
- Tensorflow實現神經網路的前向傳播神經網路
- 吳恩達機器學習筆記 —— 10 神經網路引數的反向傳播演算法吳恩達機器學習筆記神經網路反向傳播演算法
- 神經網路神經網路
- 英偉達收購 ARM 程式再度受阻!400 億美元交易要黃?
- 神經網路之反向傳播訓練(8行程式碼)神經網路反向傳播行程
- 吳恩達《神經網路與深度學習》課程筆記(4)– 淺層神經網路吳恩達神經網路深度學習筆記
- 吳恩達《神經網路與深度學習》課程筆記(5)– 深層神經網路吳恩達神經網路深度學習筆記
- 英偉達又火了一篇影像轉換論文,我們竟然用來吸貓
- 英偉達的AI晶片霸主之路!AI晶片