損失函式
本篇我們來學習一下在機器學習中常用的損失函式
文中我們用 Y Y Y表示實際值, f ( X ) f(X) f(X)表示預測值
常用的損失函式有:
0-1損失函式(0-1 loss function)
L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y,f(X)) = \left\{ \begin{array}{l} 1,\;\;Y \ne f(X)\\ 0,\;\;Y = f(X) \end{array} \right. L(Y,f(X))={1,Y=f(X)0,Y=f(X)
實際值和預測值相等時為1
,不相等時為0
平方損失函式(quadratic loss function)
L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y,f(X)) = {(Y - f(X))^2} L(Y,f(X))=(Y−f(X))2
實際值和預測值之間的誤差的平方
絕對損失函式(absolute loss function)
L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y,f(X)) = |Y - f(X)| L(Y,f(X))=∣Y−f(X)∣
實際值和預測值之間的誤差絕對值
對數損失函式(logarithmic loss function)或對數似然損失函式(log-likelihood loss function)
L ( Y , P ( Y ∣ X ) ) = − log P ( Y ∣ X ) L(Y,P(Y|X)) = - \log P(Y|X) L(Y,P(Y∣X))=−logP(Y∣X)
實際值和預測值之間的對數值
相關文章
- 損失函式+啟用函式函式
- Triplet Loss 損失函式函式
- 損失函式綜述函式
- Pytorch 常用損失函式PyTorch函式
- 例項解釋NLLLoss損失函式與CrossEntropyLoss損失函式的關係函式ROS
- TensorFlow損失函式專題函式
- 談談交叉熵損失函式熵函式
- Pytorch中的損失函式PyTorch函式
- PyTorch:損失函式loss functionPyTorch函式Function
- SSD的損失函式設計函式
- 邏輯迴歸 損失函式邏輯迴歸函式
- 聊聊損失函式1. 噪聲魯棒損失函式簡析 & 程式碼實現函式
- 詳解常見的損失函式函式
- 2.3邏輯迴歸損失函式邏輯迴歸函式
- TensorFlow筆記-06-神經網路優化-損失函式,自定義損失函式,交叉熵筆記神經網路優化函式熵
- 焦點損失函式 Focal Loss 與 GHM函式
- 圖示Softmax及交叉熵損失函式熵函式
- 邏輯迴歸損失函式(cost function)邏輯迴歸函式Function
- 損失函式改進方法之Focal Loss函式
- 人臉識別損失函式疏理與分析函式
- 理解神經網路的不同損失函式神經網路函式
- 【機器學習基礎】常見損失函式總結機器學習函式
- 邏輯迴歸:損失函式與梯度下降邏輯迴歸函式梯度
- 【機器學習】【base】 之 目標函式 損失函式 優化演算法機器學習函式優化演算法
- 換個角度看GAN:另一種損失函式函式
- 神經網路基礎部件-損失函式詳解神經網路函式
- 深度神經網路(DNN)損失函式和啟用函式的選擇神經網路DNN函式
- 梯度提升二三事:怎麼來自定義損失函式?梯度函式
- 機器學習者都應該知道的五種損失函式!機器學習函式
- 一種基於均值不等式的Listwise損失函式函式
- 機器學習從業者必知的5種迴歸損失函式機器學習函式
- 無需手工設計,從零開始搜尋損失函式函式
- tensorflow2 自定義損失函式使用的隱藏坑函式
- 深度人臉識別中不同損失函式的效能對比函式
- 建立函式失敗函式
- 損失函式:最小二乘法與極大似然估計法函式
- 確定不收藏?機器學習必備的分類損失函式速查手冊機器學習函式
- 機器學習大牛最常用的5個迴歸損失函式,你知道幾個?機器學習函式