統計學習方法——模型與問題分類
0. 寫在前面
在這一講中,我們主要介紹一下模型的類別以及問題的類別,並對課後習題進行相應的分析。
1. 模型的型別
我們知道,統計學習主要包括監督學習、非監督學習、半監督學習和強化學習。那麼在統計學習方法一書中主要涉及的是監督學習。而監督學習主要分為兩類,一種是生成模型,一種是判別模型。
1. 生成模型
生成模型是由資料學習聯合概率分佈P(X,Y),然後求出條件概率分佈P(Y|X)作為預測模型,其樣子為:
這樣的方法稱為生成方法,因為模型表示了給定輸入X產生輸出Y的生成關係。典型的生成模型由:樸素貝葉斯發和隱馬爾可夫模型。
生成模型所用的生成方法有以下幾個有點
1. 生成方法可以還原出聯合概率分佈P(X,Y)
2. 生成方法的學習收斂速度更快。
3. 存在隱變數時,仍可以用生成方法學習。
2. 判別模型
判別模型則是由資料直接學習決策函式
相比較生成模型所用的生成方法,判別模型的判別方法也有其自身的特點:
1. 判別方法直接學習的是條件概率P(Y|X)或者決策函式
2. 直接面對預測,學習準確率更高
3. 可以簡化學習問題。
2. 問題型別
監督學習的方法有生成方法和判別方法,但是問題的型別有三種:分類問題、標註問題、迴歸問題。
1. 分類問題
分類問題是一個非常常見的問題。在監督學習中,當輸出變數Y取有限個離散值時,預測問題便成為分類問題。也就是給出一個分類函式
而評價分類器效能的指標一般是分類準確率。這個其實不用解釋的,準確率就是正確率,也就是輸出結果和實際值相同的百分比。
而對於二分類問題,可以用精確率、召回率、和F1值綜合評價,通常稱為PRF值。
假設:
TP——將正類預測為正類數
FN——將正類預測為負類數
FP——將負類預測為正類數
TN——將負類預測為負類數
那麼準確率應當是:
精確率的定義為:
召回率的定義為:
F1值的定義為:
其多分類問題也可化為二分類從而進行PRF評價,預測正確的為正類,預測錯誤的為負類。實際上很多統計學習方法都是分類問題,也可以認為大部分的問題都是分類問題。
2. 標註問題
標註問題是分類問題的一個更廣泛的推廣。它可以退化為分類問題,不過它不同於分類問題的一個重要特點是:它的標註問題的輸入時一個觀測序列,輸出是一個標記序列或狀態序列。也就是說它不僅僅關注的每一個輸入的分類結果,它更關注的是一個序列化的輸入,給出一個最可能的序列化輸出。這就是序列化標註問題。這種問題還是比較少的,通常使用隱馬爾可夫模型或者條件隨機場來進行學習。
其評價標準與分類問題相同,均可採用PRF值來進行預測。
3. 迴歸問題
迴歸問題我們不在機器學習的時候就已經遇到了,不過我們那時候學習的都還比較基礎,就是根據當前的資料擬合出最符合當前走勢的曲線,以此能夠預測出接下來的過程中資料的走向如何。
按照輸入變數的個數,我們可以分為一元迴歸和多元迴歸,按照輸入變數和輸出變數之間的關係型別,可以分為線性迴歸和非線性迴歸。我們之前接觸到的大部分是線性迴歸。
迴歸學習的最常用的損失函式就是平方損失函式,通常使用最小二乘法求解。而常見的問題比如股票的走勢問題,這個非常形象直觀的展示了需要回歸的內容,也就是預測出在接下來的時間裡,股票的走勢如何。
3. 課後習題解答
這個課後習題只有兩題:
1. 說明伯努利模型的極大似然估計以及貝葉斯估計中的統計學習方法三要素。
2. 通過經驗風險最小化推到極大似然估計,證明模型是條件概率分佈,當損失函式是對數函式時,經驗風險最小化等價於極大似然估計。
解答:
1.對於第一題,我們需要讀清楚題,它要問的是伯努利模型的吉薩似然估計和貝葉斯估計的三要素。
那麼首先我們來回顧一下統計學習方法的三要素:模型、策略和演算法。
對於模型來講,既然都是伯努利模型了,模型自然不用說了,肯定是伯努利模型。
那麼主要是策略和演算法的不同。在之前我們說過,極大似然估計的策略是經驗風險最小化。但是我們不能這麼回答,因為我們需要證明是經驗風險最小化,其實這就是第二題的答案。
對於極大似然估計,也就是求這樣的一個式子:
對於伯努利模型來說:
這樣子,我們就是求μ的取值。
那麼怎麼求呢,對於似然估計,也就是求得
那麼第三個因素——演算法是什麼呢?
這就是說極大似然估計怎麼求解,常規方法為:
1. 寫出似然函式
2. 對似然函式取對數
3. 求導數
4. 解似然方程
通過以上4步,就差不多可以取得其極大值μ了。
例如我們這裡的伯努利模型:
1. 找出似然函式
2.對似然函式取對數
3. 求導數
4. 令偏導數為0
這就是最終結果了,分類這麼大勁,其實我們的日常經驗就是這樣,例如如果我們投了10次硬幣,出現了8次正面,那麼我們肯定認為出現正面的概率應該是0.8。
在解題的過程中,我們就看到了,當模型是條件概率分佈,損失函式是對數損失函式時,極大似然估計就是風險最小化。
我們來看一下經驗風險最小化的樣子:
是不是是一個樣子。
同樣的貝葉斯估計也是這樣的步驟,首先其模型還是伯努利模型,其策略為結構風險最小化,其演算法當然是全概率公式了,然後轉換為最大後驗概率,當先驗概率一致時,最大後驗概率等於極大似然估計。這點我們之前的機器學習講過,不過為了防止又忘記了,現在重新再來複習一遍:
利用貝葉斯全概率公式可得:
對於同一個訓練集來講P(D)是相同的,因此可以去掉:
當各個模型的先驗概率一樣時P(h)就可以去掉,那麼就會變為:
這形式是不是和極大似然估計一致?
4. 小結
那麼第一章的內容,我們就都講完了,下面我們將會進入到正軌,對每一類具體的機器學習方法來進行學習,下期見。
相關文章
- IO模型學習(一)IO模型分類模型
- 統計學習方法——感知機模型模型
- 《統計學習方法》第11章習題
- 學習SVM(一) SVM模型訓練與分類的OpenCV實現模型OpenCV
- 深度學習之電影二分類的情感問題深度學習
- 統計學習方法
- keras框架下的深度學習(二)二分類和多分類問題Keras框架深度學習
- 元學習:人類與大模型比較建模大模型
- 統計學習方法筆記-感知機學習方法筆記
- 【統計學習方法|筆記】第1章 統計學習方法理論筆記
- 常用介面分類與模組設計的方法
- VR垃圾分類體驗系統:學習垃圾分類知識科普VR
- 報表工具分類-數學模型模型
- 統計學習方法筆記筆記
- 強化學習分類強化學習
- ML.NET 示例:多類分類之問題分類
- 深度學習之新聞多分類問題深度學習
- 系統學習NLP(十九)--文字分類之FastText文字分類AST
- 設計師值得學習的分類網站網站
- 學習筆記:樹與圖上的計數問題筆記
- [全程建模]UML設計類中的實現與方法數量問題
- 第十篇:非均衡分類問題的思考與問題與解決思路
- 文字分類模型文字分類模型
- 人工智慧 (02) 機器學習 - 監督式學習分類方法人工智慧機器學習
- 深度學習專案實戰:垃圾分類系統深度學習
- 模式識別問題——支援向量機、數理統計方法、聚類分析模式聚類
- 二分類問題 - 【老魚學tensorflow2】
- 與模型無關的元學習,UC Berkeley提出一種可推廣到各類任務的元學習方法模型
- 大衛談學習3:方法還是問題,這是個問題!
- 深度學習、資訊理論與統計學深度學習
- 統計學習方法——實現AdaBoost
- 統計學習方法(二)決策樹
- orange人工智慧分類問題人工智慧
- [提問交流]分類如何繫結獨立模型??模型
- 04 | 函式與優化方法:模型的自我學習(上)函式優化模型
- java學習中問題與解決方式Java
- 深度學習(二)之貓狗分類深度學習
- 分類學習器的構建