吳恩達機器學習第一課 Supervised Machine Learning Regression and Classification

记录学习Blog發表於2024-06-10

Supervised Machine Learning Regression and Classification

第一週

1.1 機器學習定義

image-20240508111023034

1.2 監督學習

image-20240512110944626

1.2.1迴歸

在輸入輸出學習後,然後輸入一個沒有見過的x輸出相應的y

image-20240508111444814 image-20240508111914285

1.2.2 classification

有多個輸出

image-20240508112336535

1.3 無監督學習

資料僅僅帶有輸入x,但不輸出標籤y,演算法需要找到資料中的某種結構。

image-20240512111423884

clustering:將相似的資料點組合在一起

anomaly detection:用於檢測異常事件

dimensionality reduction:降維 可以壓縮大資料集

2.1 線性迴歸模型

image-20240512202658988

image-20240512203150655

image-20240512204109296

2.2 代價函式公式

image-20240514110552170

2.3 理解代價函式

image-20240514111116925

image-20240514111736641

image-20240514112046130

image-20240514112215956

image-20240514112430750

image-20240514112609585

2.4 代價函式視覺化

image-20240514112943095

image-20240516102726668

image-20240516105519741


3.1 梯度下降

最小化成本函式j

image-20240516110031743

image-20240516110530985

3.2梯度下降的實現

α成為learning rate

如果非常大的話,表示一個非常激進的梯度下降過程

image-20240516112116390

image-20240516112847345

3.3 學習率

image-20240516130756767

到達了最小值之後,這個導數變為0,不會更改,保持這個結果。

image-20240516131411072

3.4 用於線性迴歸的梯度下降

image-20240516131700910

image-20240516132206892

image-20240516132816057

image-20240516132910456

image-20240516133255588

image-20240516134004017

第二週

1.1 多維特徵

image-20240516134720078

image-20240516134940656

image-20240516135234616

1.2向量化

image-20240516140403377

image-20240516141029324

1.3 用於多元線性迴歸的梯度下降法

image-20240516142320778

image-20240516142553982

2.1 特徵縮放

image-20240516143343013

對訓練資料進行處理,關鍵是重新標度x1和x2

image-20240516143757637

image-20240516144223440

image-20240516153743788

image-20240516154006175

2.2 判斷梯度下降是否收斂

image-20240516155140990

2.3 如何設定學習率

image-20240516155526555

image-20240516155738735

2.4 特徵工程

image-20240516160627360

2.5 多項式迴歸

image-20240516161113500

第三週

image-20240524162210874

image-20240524162823964

1.1 logistic regression

可用作classification ,實際上是用作解決輸出標籤

image-20240524163623565

image-20240524163911913

1.2 決策邊界

image-20240524164456068

image-20240524164800619

image-20240524165100287

叉號表示y類等於1,小圓圈表示y類等於0

image-20240524165208493

1.3 邏輯迴歸中的代價函式

image-20240524183157272

image-20240524184147468

平方誤差成本函式不適用於邏輯迴歸

image-20240524184342253

1.4 簡化邏輯迴歸代價函式

image-20240524184913786

image-20240524185134127

1.5 實現梯度下降

image-20240524185423468

image-20240524185651486

線性迴歸與邏輯迴歸

1.6 過擬合問題 overfitting

image-20240524191155257

generalization 泛化 準確預測出從來沒有見過的案例的能力

image-20240524191535939

1.7 解決過擬合問題

收集更多的訓練資料

image-20240524191836154

特徵選擇

image-20240524192227057

正則化:縮小引數而不必將引數設定為0

可以保留所有的特徵

image-20240524192510607

1.8 正則化

image-20240524193345658

image-20240524193724910

image-20240524194032844

1.9 用於線性迴歸的正則方法

image-20240524195202260

image-20240524195616937

image-20240524195916105

去掉求和符號是因為我們是對Wj求偏導,除了Wj那項其他都消除了

1.10 用於邏輯迴歸的正則方法

image-20240524200244540

image-20240524200409611

相關文章