泛化的第一性原理 - KDnuggets
我們現在看到的大多數機器學習 (ML) 論文都專注於推進不同領域的新技術和方法,例如自然語言或計算機視覺。儘管缺乏機器智慧的基本理論,但 ML 研究仍在以瘋狂的速度推進。ML 中的一些主要問題,例如如何理解神經網路如何學習或如何量化知識泛化,仍未得到解答。我們不時會遇到一些論文,這些論文以新的想法挑戰我們對 ML 理論的基本理解。這就是“神經切線核特徵值準確預測泛化”的案例,這是 伯克利人工智慧研究(BAIR)剛剛發表的開創性論文,它提出了一種新的泛化理論。
理解泛化仍然是現代機器學習中最大的謎團之一。在他們的論文中,BAIR 研究人員解決了以下陳述中所述的泛化基本問題的變體:
如果提供給定數量的訓練示例,能否根據第一原理有效地預測給定網路架構在學習給定函式時的泛化能力?
為了回答這個問題,BAIR 團隊依賴於最近在深度學習方面的兩項突破:
1) 無限寬網路
近年來深度學習最有趣的理論發展之一是無限寬度網路理論。這一發展表明,由於神經網路中的隱藏層趨向於無限,因此神經網路本身的行為採用非常簡單的分析形式。這個想法表明,透過研究理論上的無限神經網路,我們可以深入瞭解有限等價物的泛化。這類似於傳統微積分中的中心極限定理。
2) 核迴歸近似
第二個突破與第一個密切相關,但更具體。最近在深度學習最佳化方面的研究表明,透過具有均方誤差 (MSE) 損失的梯度下降訓練的寬網路等效於稱為核迴歸的經典模型。在這種情況下,核心是網路的“神經切線核心”(NTK),它描述了使用梯度下降訓練時的演化。更正常地說,研究表明,核心迴歸的 MSE 的近似值(以 NTK 為核心)可以準確預測網路學習任意函式的 MSE。
好處:可學習性
BAIR 的泛化第一性原理理論的最大貢獻是可學習性的概念。可學習性的思想是量化目標函式和學習函式之間的近似值。這對 MSE 來說聽起來非常熟悉,但可學習性表現出與 MST 不同的特性,這使其更適合以後的模型。
BAIR 研究的結果遠非結論性的,但表明要得出神經網路泛化的一般理論,還有更多工作要做。可學習性度量的貢獻表明,對傳統 MSE 和核迴歸方法的簡單改進可以更準確地理解神經網路如何泛化知識。
相關文章
- 求索資料結構的第一性原理資料結構
- 思考工具之第一性原理 | Untools
- 泛型擦除的原理泛型
- 軟體工程師第一性原理思考 - AddyOsmani軟體工程工程師
- Java 泛型原理Java泛型
- 運用第一性原理探尋AI本質AI
- 強化學習入門 -KDnuggets強化學習
- 泛型的基本原理泛型
- 談核心玩法設計的一點點理解,從第一性原理出發
- 當第一性原理遇上AI,發現200多種新催化劑AI
- LinkSLA:讓運維價值迴歸使用者“第一性原理”運維
- Dubbo泛化呼叫
- 理解C#泛型運作原理C#泛型
- 網易櫻花工作室製作人談3A,善用第一性原理
- Java進階 | 泛型機制與反射原理Java泛型反射
- 在安卓上使用OpenCV的指南 - kdnuggets安卓OpenCV
- 簡單易懂的 Go 泛型使用和實現原理介紹Go泛型
- SOFA 原始碼分析 — 泛化呼叫原始碼
- 泛型模板化設計DEMO泛型
- 機器學習之泛化機器學習
- 人工智慧簡介 - kdnuggets人工智慧
- 機器學習的文字摘要方法概述 - kdnuggets機器學習
- 泛型--泛型萬用字元和泛型的上下限泛型字元
- 說一下泛型原理,並舉例說明泛型
- 模型的泛化能力僅和Hessian譜有關嗎?模型
- 什麼是細分Segmentation? - KDnuggetsSegmentation
- NLP 中不同詞嵌入技術的比較 - KDnuggets
- 資料的相關性或因果關係 - KDnuggets
- 深度學習中的Lipschitz約束:泛化與生成模型深度學習模型
- Vue的變化偵測原理Vue
- 分析工程師 – 資料團隊中的新角色 - KDnuggets工程師
- dubbo泛化引發的生產故障之dubbo隱藏的坑
- Kotlin入門潛修之類和物件篇—泛型及其原理Kotlin物件泛型
- Dubbo 泛化呼叫在vivo統一配置系統的應用
- NeurIPS 2018提前看:視覺化神經網路泛化能力視覺化神經網路
- 泛型類、泛型方法及泛型應用泛型
- 第一性沿著高對稱線磁化率的計算
- Synchronized的實現原理以及優化synchronized優化