神經網路之所以強大的兩個原因 - tunguz
讓神經網路如此強大的兩個最重要的特性是:
- 可微分性Differentiability
- 組合性Compositionality
可微分性使得使用梯度下降進行最佳化成為可能,梯度下降比大多數其他數字最佳化方法快幾個數量級。
另一方面,組合性意味著我們可以利用鏈式規則進行微分,並將潛在的難以處理的函式分解為可管理的小單元,我們可以一次處理一個。
然而,在大多數情況下,神經網路架構本身需要被*設計*。最佳化這種設計是完全不可行的,事實上,這也是大多數神經網路研究的重點所在。
另一方面,梯度提升演算法將提升集合法與梯度下降法結合起來,並使用差分方法構建整個ML演算法 "架構",對超引數的調整非常少。
IMHO,從純概念的角度來看,這種方法非常吸引人。不過由於其概念上的簡單性,我們在基本演算法上似乎沒有什麼可以改進的地方。
但我相信,對於梯度提升方法所能做到的,我們還只是觸及到了表面。我相信,僅僅幾個簡單的改進就可以使梯度提升法比目前更加強大。
相關文章
- 神經網路不收斂的 11 個原因神經網路
- 探索無限大的神經網路神經網路
- 人工智慧中神經網路發展緩慢的原因人工智慧神經網路
- 神經網路:numpy實現神經網路框架神經網路框架
- 神經網路神經網路
- 3.4 神經網路為什麼這麼強神經網路
- 人人都能搞定的大模型原理 - 神經網路大模型神經網路
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 33個神經網路「煉丹」技巧神經網路
- 8、神經網路神經網路
- LSTM神經網路神經網路
- 聊聊從腦神經到神經網路神經網路
- 圖神經網路GNN 庫,液體神經網路LNN/LFM神經網路GNN
- 構建兩層以上BP神經網路(python程式碼)神經網路Python
- 用一個畫素攻陷神經網路神經網路
- 如何調整一個不收斂的神經網路神經網路
- MLer必知的8個神經網路架構神經網路架構
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 【神經網路篇】--RNN遞迴神經網路初始與詳解神經網路RNN遞迴
- Yan LeCun強推的AI簡史:兩大流派世紀之爭,神經網路華麗迴歸LeCunAI神經網路
- 神經網路是如何工作的?神經網路
- 3.2 神經網路的通俗理解神經網路
- 3.3 神經網路的訓練神經網路
- 神經網路的發展史神經網路
- 神經網路(neural networks)神經網路
- 人工神經網路(ANN)神經網路
- 卷積神經網路卷積神經網路
- 迴圈神經網路神經網路
- 生成型神經網路神經網路
- 一個故事看懂AI神經網路工作原理AI神經網路
- 隨機森林VS神經網路:哪個更好?隨機森林神經網路
- RNN神經網路產生梯度消失和梯度爆炸的原因及解決方案RNN神經網路梯度
- (四)卷積神經網路 -- 8 網路中的網路(NiN)卷積神經網路
- 用自注意力增強卷積:這是新老兩代神經網路的對話(附實現)卷積神經網路
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- Tensorflow系列專題(四):神經網路篇之前饋神經網路綜述神經網路
- 神經網路中常用的函式神經網路函式
- Tensor:Pytorch神經網路界的NumpyPyTorch神經網路