【機器學習】【base】 之 目標函式 損失函式 優化演算法
目錄
機器學習的核心是一個模型,一個損失函式loss fuction(由目標函式得出),加上一個優化演算法。一個損失函式可以用不同的優化演算法,不同的損失函式也可以用相同的優化演算法。
目標函式定義
最大似然(MLE),最大後驗(MAP)都是構造目標函式的方法,是引數估計的方法之一。
最大似然方法
最大似然估計,只是一種概率論在統計學的應用,它是引數估計的方法之一。說的是已知某個隨機樣本滿足某種概率分佈,但是其中具體的引數不清楚,引數估計就是通過若干次試驗,觀察其結果,利用結果推出引數的大概值。最大似然估計是建立在這樣的思想上:已知某個引數能使這個樣本出現的概率最大,我們當然不會再去選擇其他小概率的樣本,所以乾脆就把這個引數作為估計的真實值。
求最大似然函式估計值的一般步驟:
(1) 寫出似然函式
(2) 對似然函式取對數,並整理
(3) 求導數
(4) 解似然方程
對於線性迴歸問題,它的模型是
此時線性迴歸的loss function是”最小二乘公式”。
最後用梯度下降來找到目標函式的最值。當然,對於這個問題,我們也可以不用梯度下降,直接用向量的投影來直接算出最優解的表示式。即“最小二乘法”。
ps:最小二乘法是一種演算法,最小二乘公式是一個loss function.
Logistic regression 的模型是
此時Logistic regression的loss function是交叉熵.
與之前的問題不同,這個目標函式比較複雜,是無法像線性迴歸那樣一步直接算出最終的解的,但是,這個目標函式是凸的,所以我們依然能用梯度下降或者牛頓法來來找到它的最優解。
因為各自的響應變數服從不同的概率分佈。在Linear Regression中,前提假設
嶺迴歸是給引數 w 加上一個高斯的先驗分佈,並用最大後驗來構造目標函式,那麼,這就相當於給目標函式加上一個L2正則項。如果我們給引數 w 加上一個拉普拉斯的先驗分佈,那麼我們可以讓 w 變得更加稀疏。我們還可以接著往下走,利用後驗分佈來進行模型平均(model averaging),得到更加完整的貝葉斯方法,
最優化演算法
優化方法中,有一類是使用函式的梯度資訊,包括一階的方法,例如梯度下降、最小二乘法都是通過求導來求損失函式的最小值, 使得估算值與實際值的總平方差儘量更小;以及二階的方法,例如牛頓法等。當然,還有和梯度無關的方法,例如 fixed point iteration,座標下降等
最小二乘
最小二乘可以由高斯噪聲假設+極大似然估計推匯出來
最小二乘法是直接對
梯度下降
而梯度下降法是一種迭代法,先給定一個
參考文件:
相關文章
- 損失函式函式
- 損失函式+啟用函式函式
- 3D高斯損失函式(1)單純損失函式3D函式
- 目標函式的經典優化演算法介紹函式優化演算法
- TensorFlow筆記-06-神經網路優化-損失函式,自定義損失函式,交叉熵筆記神經網路優化函式熵
- 【機器學習基礎】常見損失函式總結機器學習函式
- Triplet Loss 損失函式函式
- 損失函式綜述函式
- 損失函式改進方法之Focal Loss函式
- Pytorch 常用損失函式PyTorch函式
- DDMP中的損失函式函式
- 例項解釋NLLLoss損失函式與CrossEntropyLoss損失函式的關係函式ROS
- 機器學習者都應該知道的五種損失函式!機器學習函式
- TensorFlow損失函式專題函式
- 談談交叉熵損失函式熵函式
- Pytorch中的損失函式PyTorch函式
- PyTorch:損失函式loss functionPyTorch函式Function
- SSD的損失函式設計函式
- 邏輯迴歸 損失函式邏輯迴歸函式
- 聊聊損失函式1. 噪聲魯棒損失函式簡析 & 程式碼實現函式
- 詳解常見的損失函式函式
- 2.3邏輯迴歸損失函式邏輯迴歸函式
- 機器學習從業者必知的5種迴歸損失函式機器學習函式
- Excel 優化函式Excel優化函式
- 指標函式 和 函式指標指標函式
- 焦點損失函式 Focal Loss 與 GHM函式
- 圖示Softmax及交叉熵損失函式熵函式
- 邏輯迴歸損失函式(cost function)邏輯迴歸函式Function
- 3D高斯損失函式(2)新增BA最佳化和結構損失3D函式
- 函式名/函式地址/函式指標函式指標
- 效能優化之節流函式---throttle優化函式
- 深度神經網路(DNN)損失函式和啟用函式的選擇神經網路DNN函式
- SQL優化--函式索引SQL優化函式索引
- 宣告與函式、函式指標函式指標
- 函式指標之回撥函式和轉移表函式指標
- SQL Server 聚合函式演算法優化技巧SQLServer函式演算法優化
- 確定不收藏?機器學習必備的分類損失函式速查手冊機器學習函式
- 機器學習大牛最常用的5個迴歸損失函式,你知道幾個?機器學習函式