Supervised Machine Learning Regression and Classification
第一週
1.1 機器學習定義
1.2 監督學習
1.2.1迴歸
在輸入輸出學習後,然後輸入一個沒有見過的x輸出相應的y
1.2.2 classification
有多個輸出
1.3 無監督學習
資料僅僅帶有輸入x,但不輸出標籤y,演算法需要找到資料中的某種結構。
clustering:將相似的資料點組合在一起
anomaly detection:用於檢測異常事件
dimensionality reduction:降維 可以壓縮大資料集
2.1 線性迴歸模型
2.2 代價函式公式
2.3 理解代價函式
2.4 代價函式視覺化
3.1 梯度下降
最小化成本函式j
3.2梯度下降的實現
α成為learning rate
如果非常大的話,表示一個非常激進的梯度下降過程
3.3 學習率
到達了最小值之後,這個導數變為0,不會更改,保持這個結果。
3.4 用於線性迴歸的梯度下降
第二週
1.1 多維特徵
1.2向量化
1.3 用於多元線性迴歸的梯度下降法
2.1 特徵縮放
對訓練資料進行處理,關鍵是重新標度x1和x2
2.2 判斷梯度下降是否收斂
2.3 如何設定學習率
2.4 特徵工程
2.5 多項式迴歸
第三週
1.1 logistic regression
可用作classification ,實際上是用作解決輸出標籤
1.2 決策邊界
叉號表示y類等於1,小圓圈表示y類等於0
1.3 邏輯迴歸中的代價函式
平方誤差成本函式不適用於邏輯迴歸
1.4 簡化邏輯迴歸代價函式
1.5 實現梯度下降
線性迴歸與邏輯迴歸
1.6 過擬合問題 overfitting
generalization 泛化 準確預測出從來沒有見過的案例的能力
1.7 解決過擬合問題
收集更多的訓練資料
特徵選擇
正則化:縮小引數而不必將引數設定為0
可以保留所有的特徵
1.8 正則化
1.9 用於線性迴歸的正則方法
去掉求和符號是因為我們是對Wj求偏導,除了Wj那項其他都消除了