機器學習中的 precision、recall、accuracy、F1 Score

Candy_GL發表於2018-09-17

轉自:https://www.cnblogs.com/weedboy/p/7072010.html

1. 四個概念定義:TP、FP、TN、FN

先看四個概念定義: 
- TP,True Positive 
- FP,False Positive 
- TN,True Negative 
- FN,False Negative

如何理解記憶這四個概念定義呢?

舉個簡單的二元分類問題 例子:

假設,我們要對某一封郵件做出一個判定,判定這封郵件是垃圾郵件、還是這封郵件不是垃圾郵件?

如果判定是垃圾郵件,那就是做出(Positive)的判定; 
如果判定不是垃圾郵件,那就做出(Negative)的判定。

True Positive(TP)意思表示做出Positive的判定,而且判定是正確的。因此,TP的數值表示正確的Positive判定的個數。 
同理,False Positive(TP)數值表示錯誤的Positive判定的個數。 
依此,True Negative(TN)數值表示正確的Negative判定個數。 
False Negative(FN)數值表示錯誤的Negative判定個數。

2. Precision、Recall、Accuracy、F1 Score(F Score)

四個概念定義:

precision = TP / (TP + FP)
recall = TP / (TP + FN)
accuracy = (TP + TN) / (TP + FP + TN + FN)
F1 Score = 2*P*R/(P+R),其中P和R分別為 precision 和 recall

如果某個二元分類問題,訓練擬合得到了幾個模型假設,那麼通常我們選擇在驗證集上,F1 Score 數值最大的那個模型假設。

 

 參考於http://www.cnblogs.com/jiangyi-uestc/p/6044282.html

相關文章