文字主題模型之LDA(一) LDA基礎

劉建平Pinard發表於2017-05-17

    文字主題模型之LDA(一) LDA基礎

    文字主題模型之LDA(二) LDA求解之Gibbs取樣演算法

    文字主題模型之LDA(三) LDA求解之變分推斷EM演算法

 

    在前面我們講到了基於矩陣分解的LSI和NMF主題模型,這裡我們開始討論被廣泛使用的主題模型:隱含狄利克雷分佈(Latent Dirichlet Allocation,以下簡稱LDA)。注意機器學習還有一個LDA,即線性判別分析,主要是用於降維和分類的,如果大家需要了解這個LDA的資訊,參看之前寫的線性判別分析LDA原理總結。文字關注於隱含狄利克雷分佈對應的LDA。

1. LDA貝葉斯模型

    LDA是基於貝葉斯模型的,涉及到貝葉斯模型離不開“先驗分佈”,“資料(似然)”和"後驗分佈"三塊。在樸素貝葉斯演算法原理小結中我們也已經講到了這套貝葉斯理論。在貝葉斯學派這裡:

先驗分佈 + 資料(似然)= 後驗分佈

    這點其實很好理解,因為這符合我們人的思維方式,比如你對好人和壞人的認知,先驗分佈為:100個好人和100個的壞人,即你認為好人壞人各佔一半,現在你被2個好人(資料)幫助了和1個壞人騙了,於是你得到了新的後驗分佈為:102個好人和101個的壞人。現在你的後驗分佈裡面認為好人比壞人多了。這個後驗分佈接著又變成你的新的先驗分佈,當你被1個好人(資料)幫助了和3個壞人(資料)騙了後,你又更新了你的後驗分佈為:103個好人和104個的壞人。依次繼續更新下去。

2. 二項分佈與Beta分佈

    對於上一節的貝葉斯模型和認知過程,假如用數學和概率的方式該如何表達呢?

    對於我們的資料(似然),這個好辦,用一個二項分佈就可以搞定,即對於二項分佈:$$Binom(k|n,p) = {n \choose k}p^k(1-p)^{n-k}$$

    其中p我們可以理解為好人的概率,k為好人的個數,n為好人壞人的總數。

    雖然資料(似然)很好理解,但是對於先驗分佈,我們就要費一番腦筋了,為什麼呢?因為我們希望這個先驗分佈和資料(似然)對應的二項分佈集合後,得到的後驗分佈在後面還可以作為先驗分佈!就像上面例子裡的“102個好人和101個的壞人”,它是前面一次貝葉斯推薦的後驗分佈,又是後一次貝葉斯推薦的先驗分佈。也即是說,我們希望先驗分佈和後驗分佈的形式應該是一樣的,這樣的分佈我們一般叫共軛分佈。在我們的例子裡,我們希望找到和二項分佈共軛的分佈。

    和二項分佈共軛的分佈其實就是Beta分佈。Beta分佈的表示式為:$$Beta(p|\alpha,\beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha)\Gamma(\beta)}p^{\alpha-1}(1-p)^{{\beta-1}}$$

    其中$\Gamma$是Gamma函式,滿足$\Gamma(x) = (x-1)!$

    仔細觀察Beta分佈和二項分佈,可以發現兩者的密度函式很相似,區別僅僅在前面的歸一化的階乘項。那麼它如何做到先驗分佈和後驗分佈的形式一樣呢?後驗分佈$P(p|n,k,\alpha,\beta)$推導如下:

$$ \begin{align} P(p|n,k,\alpha,\beta) & \propto P(k|n,p)P(p|\alpha,\beta) \\ & = P(k|n,p)P(p|\alpha,\beta) \\& = Binom(k|n,p) Beta(p|\alpha,\beta) \\ &= {n \choose k}p^k(1-p)^{n-k} \times  \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha)\Gamma(\beta)}p^{\alpha-1}(1-p)^{{\beta-1}} \\& \propto p^{k+\alpha-1}(1-p)^{n-k + \beta -1}  \end{align}$$

    將上面最後的式子歸一化以後,得到我們的後驗概率為:$$P(p|n,k,\alpha,\beta) = \frac{\Gamma(\alpha + \beta + n)}{\Gamma(\alpha + k)\Gamma(\beta + n - k)}p^{k+\alpha-1}(1-p)^{n-k + \beta -1} $$

    可見我們的後驗分佈的確是Beta分佈,而且我們發現:$$ Beta(p|\alpha,\beta) + BinomCount(k,n-k) = Beta(p|\alpha + k,\beta +n-k)$$

    這個式子完全符合我們在上一節好人壞人例子裡的情況,我們的認知會把資料裡的好人壞人數分別加到我們的先驗分佈上,得到後驗分佈。 

    我們在來看看Beta分佈$Beta(p|\alpha,\beta)$的期望:$$ \begin{align} E(Beta(p|\alpha,\beta)) & = \int_{0}^{1}tBeta(p|\alpha,\beta)dt \\& =  \int_{0}^{1}t \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha)\Gamma(\beta)}t^{\alpha-1}(1-t)^{{\beta-1}}dt \\& = \int_{0}^{1}\frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha)\Gamma(\beta)}t^{\alpha}(1-t)^{{\beta-1}}dt \end{align}$$

    由於上式最右邊的乘積對應Beta分佈$Beta(p|\alpha+1,\beta)$,因此有:$$ \int_{0}^{1}\frac{\Gamma(\alpha + \beta+1)}{\Gamma(\alpha+1)\Gamma(\beta)}p^{\alpha}(1-p)^{{\beta-1}} =1$$

    這樣我們的期望可以表達為:$$E(Beta(p|\alpha,\beta)) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha)\Gamma(\beta)}\frac{\Gamma(\alpha+1)\Gamma(\beta)}{\Gamma(\alpha + \beta+1)} =  \frac{\alpha}{\alpha + \beta} $$

    這個結果也很符合我們的思維方式。

3. 多項分佈與Dirichlet 分佈

    現在我們回到上面好人壞人的問題,假如我們發現有第三類人,不好不壞的人,這時候我們如何用貝葉斯來表達這個模型分佈呢?之前我們是二維分佈,現在是三維分佈。由於二維我們使用了Beta分佈和二項分佈來表達這個模型,則在三維時,以此類推,我們可以用三維的Beta分佈來表達先驗後驗分佈,三項的多項分佈來表達資料(似然)。

    三項的多項分佈好表達,我們假設資料中的第一類有$m_1$個好人,第二類有$m_2$個壞人,第三類為$m_3 = n-m_1-m_2$個不好不壞的人,對應的概率分別為$p_1,p_2,p_3 = 1-p_1-p_2$,則對應的多項分佈為:$$multi(m_1,m_2,m_3|n,p_1,p_2,p_3) = \frac{n!}{m_1! m_2!m_3!}p_1^{m_1}p_2^{m_2}p_3^{m_3}$$

    那三維的Beta分佈呢?超過二維的Beta分佈我們一般稱之為狄利克雷(以下稱為Dirichlet )分佈。也可以說Beta分佈是Dirichlet 分佈在二維時的特殊形式。從二維的Beta分佈表示式,我們很容易寫出三維的Dirichlet分佈如下:$$Dirichlet(p_1,p_2,p_3|\alpha_1,\alpha_2, \alpha_3) = \frac{\Gamma(\alpha_1+ \alpha_2 + \alpha_3)}{\Gamma(\alpha_1)\Gamma(\alpha_2)\Gamma(\alpha_3)}p_1^{\alpha_1-1}(p_2)^{\alpha_2-1}(p_3)^{\alpha_3-1}$$

    同樣的方法,我們可以寫出4維,5維,。。。以及更高維的Dirichlet 分佈的概率密度函式。為了簡化表示式,我們用向量來表示概率和計數,這樣多項分佈可以表示為:$Dirichlet(\vec p| \vec \alpha) $,而多項分佈可以表示為:$multi(\vec m| n, \vec p)$。

    一般意義上的K維Dirichlet 分佈表示式為:$$Dirichlet(\vec p| \vec \alpha) = \frac{\Gamma(\sum\limits_{k=1}^K\alpha_k)}{\prod_{k=1}^K\Gamma(\alpha_k)}\prod_{k=1}^Kp_k^{\alpha_k-1}$$

    而多項分佈和Dirichlet 分佈也滿足共軛關係,這樣我們可以得到和上一節類似的結論:$$ Dirichlet(\vec p|\vec \alpha) + MultiCount(\vec m) = Dirichlet(\vec p|\vec \alpha + \vec m)$$

    對於Dirichlet 分佈的期望,也有和Beta分佈類似的性質:$$E(Dirichlet(\vec p|\vec \alpha)) = (\frac{\alpha_1}{\sum\limits_{k=1}^K\alpha_k}, \frac{\alpha_2}{\sum\limits_{k=1}^K\alpha_k},...,\frac{\alpha_K}{\sum\limits_{k=1}^K\alpha_k})$$

4. LDA主題模型

    前面做了這麼多的鋪墊,我們終於可以開始LDA主題模型了。

    我們的問題是這樣的,我們有$M$篇文件,對應第d個文件中有有$N_d$個詞。即輸入為如下圖:

    我們的目標是找到每一篇文件的主題分佈和每一個主題中詞的分佈。在LDA模型中,我們需要先假定一個主題數目$K$,這樣所有的分佈就都基於$K$個主題展開。那麼具體LDA模型是怎麼樣的呢?具體如下圖:

    LDA假設文件主題的先驗分佈是Dirichlet分佈,即對於任一文件$d$, 其主題分佈$\theta_d$為:$$\theta_d = Dirichlet(\vec \alpha)$$

    其中,$\alpha$為分佈的超引數,是一個$K$維向量。

    LDA假設主題中詞的先驗分佈是Dirichlet分佈,即對於任一主題$k$, 其詞分佈$\beta_k$為:$$\beta_k= Dirichlet(\vec \eta)$$

    其中,$\eta$為分佈的超引數,是一個$V$維向量。$V$代表詞彙表裡所有詞的個數。

    對於資料中任一一篇文件$d$中的第$n$個詞,我們可以從主題分佈$\theta_d$中得到它的主題編號$z_{dn}$的分佈為:$$z_{dn} = multi(\theta_d)$$

    而對於該主題編號,得到我們看到的詞$w_{dn}$的概率分佈為: $$w_{dn} = multi(\beta_{z_{dn}})$$

    理解LDA主題模型的主要任務就是理解上面的這個模型。這個模型裡,我們有$M$個文件主題的Dirichlet分佈,而對應的資料有$M$個主題編號的多項分佈,這樣($\alpha \to \theta_d \to \vec z_{d}$)就組成了Dirichlet-multi共軛,可以使用前面提到的貝葉斯推斷的方法得到基於Dirichlet分佈的文件主題後驗分佈。

    如果在第d個文件中,第k個主題的詞的個數為:$n_d^{(k)}$, 則對應的多項分佈的計數可以表示為 $$\vec n_d = (n_d^{(1)}, n_d^{(2)},...n_d^{(K)})$$

    利用Dirichlet-multi共軛,得到$\theta_d$的後驗分佈為:$$Dirichlet(\theta_d | \vec \alpha + \vec n_d)$$

    同樣的道理,對於主題與詞的分佈,我們有$K$個主題與詞的Dirichlet分佈,而對應的資料有$K$個主題編號的多項分佈,這樣($\eta \to \beta_k \to \vec w_{(k)}$)就組成了Dirichlet-multi共軛,可以使用前面提到的貝葉斯推斷的方法得到基於Dirichlet分佈的主題詞的後驗分佈。

    如果在第k個主題中,第v個詞的個數為:$n_k^{(v)}$, 則對應的多項分佈的計數可以表示為 $$\vec n_k = (n_k^{(1)}, n_k^{(2)},...n_k^{(V)})$$

    利用Dirichlet-multi共軛,得到$\beta_k$的後驗分佈為:$$Dirichlet(\beta_k | \vec \eta+ \vec n_k)$$

    由於主題產生詞不依賴具體某一個文件,因此文件主題分佈和主題詞分佈是獨立的。理解了上面這$M+K$組Dirichlet-multi共軛,就理解了LDA的基本原理了。

    現在的問題是,基於這個LDA模型如何求解我們想要的每一篇文件的主題分佈和每一個主題中詞的分佈呢?

    一般有兩種方法,第一種是基於Gibbs取樣演算法求解,第二種是基於變分推斷EM演算法求解。

    如果你只是想理解基本的LDA模型,到這裡就可以了,如果想理解LDA模型的求解,可以繼續關注系列裡的另外兩篇文章。

 

(歡迎轉載,轉載請註明出處。歡迎溝通交流: liujianping-ok@163.com) 

相關文章