貝葉斯推斷基礎
貝葉斯方法提出了一個機率框架來描述如何將新的觀察結果整合到決策過程中。傳統的貝葉斯推斷的二進位制算術結構中,後驗機率的計算需要大量的乘、除、加。
先驗機率(由歷史求因):根據以往經驗和分析得到的機率,觀測資料前某一不確定量的先驗機率分佈,通常指模型的引數\(\theta\)對應的\(P(\theta)\)
後驗機率(知果求因):一個隨機事件或者一個不確定事件的後驗機率是在考慮和給出相關證據或資料後所得到的條件機率。這個機率需要觀測資料才能得到,對一個神經網路建模需要基於給定的資料集才能得到網路引數\(\theta\)。後驗機率表示為\(P(\theta|X)\)。
似然函式(由因求果):一種關於統計模型引數的函式。給定輸出\(x\)時,引數\(\theta\)的似然函式\(L(\theta|x)\)等於給定引數\(\theta\)後變數\(X\)的機率。\(L(\theta|x)=P(X=x|\theta)\)。
頻率派和貝葉斯派的觀點爭議在於:頻率派引數是客觀存在的,頻率派關心極大似然函式,只要引數求出來了,給定自變數\(X,Y\)也就固定了,極大似然估計為\(\theta_{MLE}=argmax_\theta P(X|\theta)\)。
相反地,貝葉斯派認為引數是隨機的,當給定輸入\(X\)後,不能用一個確定的\(Y\)表示輸出結果,必須用一個機率的方式表示出來。\(E(Y|X)=\int P(y|x,\theta)P(\theta|X)d\theta\)。(\(X,\theta, Y\)分別為輸入資料,模型引數,輸出)。
如何求後驗機率:\(P(\theta|X)=\frac{P(X|\theta)P(\theta)}{P(X)}=\frac{P(X|\theta)P(\theta)}{\int P(X|\theta)P(\theta)d\theta}\)
實際上很難確定解析解,因此需要引入最大後驗機率求法:\(\theta_{MAP}=argmax_\theta P(X|\theta)P(\theta)\).
二分類貝葉斯機器(Bayesian Machine)
給定類別\(V_1,V_2\),有\(Pr(V_1)+pR(V_2)=1\),\(Pr(V_1),Pr(V_2)\)為後驗機率。假設有\(M\)個特徵證據,\(E_1,E_2,\cdots,E_M\)。對給定集合的特徵,\(E_1,E_2,\cdots,E_M\)滿足條件獨立,類別\(V_1\)的後驗機率為:\(P_r(V_1|E_1,E_2,\cdots, E_K)=\frac{Pr(V_1)\prod_{j=1}^K Pr(E_j|V_1)}{Pr(V_1)\prod_{j=1}^K Pr(E_j|V_1)+Pr(V_2)\prod_{j=1}^K Pr(E_j|V_2)}\)。
雙權重加權比的SC實現
令\(Pr(V_i)=\omega_i\)和\(Pr(E_j|V_i)=\theta_{ij}\),其中\(i=1,2\)和\(j=1,2,\cdots,K\),類別\(V_1\)關於兩個權重\(\omega_1,\omega_2\)的加權比的後驗機率為:\(z=\frac{\omega_1\theta_1}{\omega_1\theta_1+\omega_2\theta_2}\)(\(\omega_1+\omega_2=1,\theta_i=\prod_{j=1}^K\theta_{ij}\)),令\(\theta_{1j}^{*}=\frac{\theta_{1j}}{\theta_{1j}+\theta_{2j}}\),可以進步表示為\(z=\frac{\omega_1 \prod_{j=1}^K \theta_{1j}^*}{\omega_1\prod_{j=1}^K\theta_{1j}^*+(1-\omega_1)\prod_{j=1}^K(1-\theta_{1j}^*)}\)。
MULLER-C ELEMENT
Celement
Mulle-C Element通常由四個與非門組成,包含兩個輸入端和一個輸出端。
\(C=(ab|bc|ac)\)
當\(a,b\)輸入端均為0時,輸出端將變化為0。當兩者的輸出為1時,輸出端為1;其餘情況,輸出保持不變。