損失函式
本篇我們來學習一下在機器學習中常用的損失函式
文中我們用 Y Y Y表示實際值, f ( X ) f(X) f(X)表示預測值
常用的損失函式有:
0-1損失函式(0-1 loss function)
L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y,f(X)) = \left\{ \begin{array}{l} 1,\;\;Y \ne f(X)\\ 0,\;\;Y = f(X) \end{array} \right. L(Y,f(X))={1,Y=f(X)0,Y=f(X)
實際值和預測值相等時為1
,不相等時為0
平方損失函式(quadratic loss function)
L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y,f(X)) = {(Y - f(X))^2} L(Y,f(X))=(Y−f(X))2
實際值和預測值之間的誤差的平方
絕對損失函式(absolute loss function)
L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y,f(X)) = |Y - f(X)| L(Y,f(X))=∣Y−f(X)∣
實際值和預測值之間的誤差絕對值
對數損失函式(logarithmic loss function)或對數似然損失函式(log-likelihood loss function)
L ( Y , P ( Y ∣ X ) ) = − log P ( Y ∣ X ) L(Y,P(Y|X)) = - \log P(Y|X) L(Y,P(Y∣X))=−logP(Y∣X)
實際值和預測值之間的對數值
相關文章
- 3D高斯損失函式(1)單純損失函式3D函式
- 損失函式綜述函式
- Triplet Loss 損失函式函式
- Pytorch 常用損失函式PyTorch函式
- 例項解釋NLLLoss損失函式與CrossEntropyLoss損失函式的關係函式ROS
- PyTorch:損失函式loss functionPyTorch函式Function
- Pytorch中的損失函式PyTorch函式
- TensorFlow損失函式專題函式
- DDMP中的損失函式函式
- 談談交叉熵損失函式熵函式
- 邏輯迴歸 損失函式邏輯迴歸函式
- SSD的損失函式設計函式
- 聊聊損失函式1. 噪聲魯棒損失函式簡析 & 程式碼實現函式
- 詳解常見的損失函式函式
- 2.3邏輯迴歸損失函式邏輯迴歸函式
- TensorFlow筆記-06-神經網路優化-損失函式,自定義損失函式,交叉熵筆記神經網路優化函式熵
- 邏輯迴歸損失函式(cost function)邏輯迴歸函式Function
- 圖示Softmax及交叉熵損失函式熵函式
- 焦點損失函式 Focal Loss 與 GHM函式
- 邏輯迴歸:損失函式與梯度下降邏輯迴歸函式梯度
- 人臉識別損失函式疏理與分析函式
- 理解神經網路的不同損失函式神經網路函式
- 3D高斯損失函式(2)新增BA最佳化和結構損失3D函式
- 換個角度看GAN:另一種損失函式函式
- 神經網路基礎部件-損失函式詳解神經網路函式
- 梯度提升二三事:怎麼來自定義損失函式?梯度函式
- 一種基於均值不等式的Listwise損失函式函式
- tensorflow2 自定義損失函式使用的隱藏坑函式
- 【機器學習基礎】常見損失函式總結機器學習函式
- 深度人臉識別中不同損失函式的效能對比函式
- 無需手工設計,從零開始搜尋損失函式函式
- 機器學習者都應該知道的五種損失函式!機器學習函式
- 損失函式:最小二乘法與極大似然估計法函式
- 瞭解GAN背後的設計,訓練,損失函式和演算法函式演算法
- 損失函式是學習的指揮棒——記一次工作實踐函式
- 機器學習從業者必知的5種迴歸損失函式機器學習函式
- 簡單介紹tensorflow2 自定義損失函式使用的隱藏坑函式
- IOU損失