今日面試題分享:解決bias和Variance問題的方法是什麼?

七月線上實驗室發表於2019-03-19

640?wx_fmt=png

長按識別上方二維碼,關注:七月線上實驗室,回覆關鍵詞:100

即可免費領取【100道機器學習面試題(上)】PDF版本一份


今日面試題分享
解決bias和Variance問題的方法是什麼?


參考答案:


解析:

High bias解決方案:Boosting、複雜模型(非線性模型、增加神經網路中的層)、更多特徵 High Variance解決方案:bagging、簡化模型、降維  


具體而言 

高偏差, 可以用boosting模型, 對預測殘差進行優化, 直接降低了偏差. 也可以用高模型容量的複雜模型(比如非線性模型, 深度神經網路), 更多的特徵, 來增加對樣本的擬合度. 

高方差, 一般使用平均值法, 比如bagging, 或者模型簡化/降維方法, 來降低方差. 


高偏差和高方差都是不好的, 我們應該加以避免. 但是它們又是此消彼長的關係, 所以必須權衡考慮. 一般情況下, 交叉驗證訓練可以取得比較好的平衡: 

將原始樣本均分成K組, 將每組樣本分別做一次驗證集,其餘的K-1組子集資料作為訓練集,這樣會得到K個模型, 這K個模型可以併發訓練以加速. 用這K個模型最終的驗證集的分類準確率的平均數作為此K-CV下分類器的效能指標. K一般大於等於3, 而K-CV 的實驗共需要建立 k 個models,並計算 k 次 test sets 的平均預測正確率。 


在實作上,k 要夠大才能使各回合中的 訓練樣本數夠多,一般而言 k=10 (作為一個經驗引數)算是相當足夠了。


題目來源:七月線上官網(www.julyedu.com)——面試題庫——面試大題——機器學習


640?wx_fmt=png



640?wx_fmt=gif

今日學習推薦

【PyTorch的入門與實戰】

16小時帶你實戰PyTorch 1.0 

四大課程特色  八大實戰專案


640?wx_fmt=jpeg

長按識別下方二維碼

免費試聽

?

640?wx_fmt=png

長按識別二維碼


640?wx_fmt=gif


640?wx_fmt=gif

備戰AI求職季 | 100道機器學習面試題(上)

機器學習中的數學基礎(微積分和概率統計)

一文詳解機器學習中最好用的提升方法:Boosting 與 AdaBoost

34個最優秀好用的Python開源框架

【實戰分享】電影推薦系統專案實戰應用

萬字長文概述NLP中的深度學習技術



諮詢,檢視課程,請點選“閱讀原文

「 在看的,麻煩點一下再走~ 」


相關文章