深度學習-理論學習關鍵示意圖
最近敲程式碼總感覺有點迷,很多東西直接使用Tensorflow或者Pytorch封裝好的模組總感覺不得勁兒,算了還是惡補一下李老師的課吧,把該弄懂的東西都搞清楚。
正則化:為了減小噪聲資料帶來的預測偏差,λ越大,曲線越趨向於平滑(水平)。

Bias and Variance:沒瞄準和打不準
偏差過大:redesign model
方差大:collect data(資料變換)、regularization

Cross validation:保證public testing set 與 private Testing set一致,因為你的test也只是樣本,而不是真實的資料分佈。
Gradient Decent:梯度是函式值增加最快的方向,所以要取反,且梯度越大,斜率越大。
Adaptive learning rate: 各個引數應該不同,且應該隨著t的增大而縮小
Adagrad:

SGD:針對loss做文章,隨機取一個樣本進行loss計算

Momentum:


Adam:

Feature Scaling:求微分的時候會偏向於輸入大的部分(x),所以需要進行歸一化

Maximum Likelihood:求導可得

Sigmod Function:

Logistics Function:公式推導




判別模型和生成模型:判別模型在大資料量的情況下較優

鏈式法則:

Backpropagation:

梯度消失:層數過多,後層根據前層已經下降(sigmod )到local minimal

Early Stopping:

Dropout:


CNN:單個Filter可以實現Property2,單個Filter中相同的feature,share同一組Weight,可以看圖三理解一下。多個Conv_maxpool輸出還是out_filter的數目,不是指數增長。







RNN:當然memory中存入output也可以;LSTM中的Linear weight是訓練出來的scalar,LSTM對照於DNN僅僅是將一個Neuro換成一個LSTM cell,4倍於RNN的引數。GRU相比於LSTM少了一個門,但效果類似且不容易Overfitting;LSTM可以解決Gradient vanishing的問題。
simple rnn:


lstm:



lstm簡單形態,C就是C,H就是H,不會影響輸入。

lstm最終形態,每層的C和H都會於下一個X一起影響輸入。

Word Embedding:類似於對映到更高的dimention追尋詞根(class),需要共享引數。


Encoder and Decoder: 如果train的時候輸入下一個的輸入是reference,會存在bias,test時候會無法預期,可以採用scheduled sampling decide。



**Attention-based-model:**a是計算得到的z和h的相似度,具體相似度的計算方法可以自己選擇。其實C是一個資訊抽取的集合。



相關文章
- 深度學習相關理論深度學習
- 深度學習相關論文深度學習
- 深度學習論文閱讀路線圖深度學習
- 圖學習相關論文快訊
- 論深度學習的侷限性深度學習
- 分散式理論學習分散式
- 關於強化學習、深度學習deeplearning研修強化學習深度學習
- 【深度學習】機率論知識複習深度學習
- 深度學習助力資料壓縮,一文讀懂相關理論深度學習
- 【學習圖片】02:關鍵效能問題
- 資訊理論理論學習筆記筆記
- 【深度學習理論】通俗理解生成對抗網路GAN深度學習
- 深度學習學習框架深度學習框架
- 深度學習-最新論文解釋深度學習
- 深度學習+深度強化學習+遷移學習【研修】深度學習強化學習遷移學習
- 深度學習——學習目錄——學習中……深度學習
- 關於“學習金字塔理論”的所思所想
- 快速入門——深度學習理論解析與實戰應用深度學習
- 【機器學習基礎】關於深度學習的Tips機器學習深度學習
- 深度學習--資料預處理深度學習
- 深度學習(6)——預處理Preprocessing深度學習
- Python深度學習(處理文字資料)--學習筆記(十二)Python深度學習筆記
- 深度學習及深度強化學習研修深度學習強化學習
- 深度學習論文和開原始碼深度學習原始碼
- 力學示意圖繪製軟體哪個好,怎麼畫力學示意圖
- 從2019 AI頂會最佳論文,看深度學習的理論基礎AI深度學習
- 深度學習 preprocess 預處理圖片方式去 pytorch 化深度學習PyTorch
- 深度學習與圖神經網路學習分享:Graph Embedding 圖嵌入深度學習神經網路
- ####深度學習深度學習
- 深度學習深度學習
- 深度 學習
- 快照隔離的理論學習
- 資訊理論-Turbo碼學習
- 鑑權理論知識學習
- 深度學習及深度強化學習應用深度學習強化學習
- 深度學習-第三章機率與資訊理論深度學習
- 機器學習&深度學習之路機器學習深度學習
- 深度學習學習7步驟深度學習