《機器學習》第二章 模型評估與選擇 筆記1
經驗誤差(empirical error)即 訓練誤差(training error):訓練集樣本產生的誤差。
泛化誤差(generalization error): 測試集樣本產生的誤差。
過擬合(overfitting):當學習器把訓練樣本學得“太好”的時候,很可能已經把訓練樣本本身的一些特點當作了所有潛在樣本都會具有的一般性質,這樣就會導致泛化效能下降。
欠擬合(underfitting)
泛化誤差的評估方法:
1 留出法
2 交叉驗證法/k倍交叉驗證
3 自助法
查準率、查全率的效能度量
1 平衡點(Break-Even Point) BEP
查準率=查全率 時的取值
2 F1度量
查準率更重要:在商品推薦系統中,為了儘可能少打擾客戶,更希望推薦內容確實是使用者感興趣的。
查全率更重要:在逃犯資訊檢索系統中,更希望儘可能少漏掉逃犯
比較檢驗
1 假設檢驗(二項檢驗、雙邊T檢驗)
2 交叉驗證t檢驗
3 McNemar檢驗(2和3檢驗是在一個資料集上比較兩個演算法的效能)
4 Friedman檢驗
5 Nemenyi後續檢驗,進一步區分各演算法
偏差與方差(Bias and Variance)
相關文章
- 機器學習-學習筆記(二) --> 模型評估與選擇機器學習筆記模型
- 機器學習演算法筆記之7:模型評估與選擇機器學習演算法筆記模型
- 周志華西瓜書《機器學習筆記》學習筆記第二章《模型的評估與選擇》機器學習筆記模型
- 機器學習筆記——模型選擇與正則化機器學習筆記模型
- 知識總結:模型評估與選擇模型
- 【機器學習】第二節-模型評估與選擇-效能度量、方差與偏差、比較檢驗機器學習模型
- 【模型評估與選擇】sklearn.model_selection.KFold模型
- 機器學習之模型評估機器學習模型
- 周志華《機器學習》課後習題解答系列(三):Ch2 - 模型評估與選擇機器學習模型
- 機器學習筆記之效能評估指標機器學習筆記指標
- 演算法金 | 機器學習模型評價、模型與演算法選擇(綜述)演算法機器學習模型
- 機器學習之模型選擇機器學習模型
- 如何選擇評估 JS 庫JS
- 【模型評估與選擇】交叉驗證Cross-validation: evaluating estimator performance模型ROSORM
- O'Reilly Report:評估機器學習的模型機器學習模型
- 1、擬合、預測、估算器、管道與模型評估模型
- 模型評估與改進:交叉驗證模型
- SSS 2.3根據記錄的評估標準評估提議的解決方案,並選擇供應商
- 正則化與模型選擇模型
- CSS選擇器筆記CSS筆記
- 模型選擇模型
- 機器學習--白板推導系列筆記3 概率:高斯分佈之有偏估計與無偏估計機器學習筆記
- 【筆記】簡單選擇排序筆記排序
- 【筆記】樹形選擇排序筆記排序
- 如何評估大語言模型模型
- 迴歸模型-評估指標模型指標
- jQuery第二章選擇器jQuery
- 機器學習的學習筆記1機器學習筆記
- 從模型選擇到超參調整:如何為機器學習專案選擇演算法模型機器學習演算法
- 《配置管理最佳實踐》——2.5 構建工具評估和選擇
- 機器學習研究與開發平臺的選擇機器學習
- 機器學習入門(二):工具與框架的選擇機器學習框架
- 使用 Amazon Bedrock(預覽版),評估、比較和選擇適合您的用例的基礎模型模型
- 筆記-10.2、HTML-CSS選擇器筆記筆記HTMLCSS
- 演算法金 | 選擇最佳機器學習模型的 10 步指南演算法機器學習模型
- 《Spark機器學習》筆記——Spark迴歸模型(最小二乘迴歸、決策樹迴歸,模型效能評估、目標變數變換、引數調優)Spark機器學習筆記模型變數
- 【火爐煉AI】機器學習004-嶺迴歸器的構建和模型評估AI機器學習模型
- 【機器學習】--模型評估指標之混淆矩陣,ROC曲線和AUC面積機器學習模型指標矩陣