神經網路學習筆記(4)——期望與算術平均值的區別、方差與均方誤差的區別
本來說直接看BP演算法的程式碼的,但是看書的時候又確實遇到了這兩個東西,所以就先記上這麼一個學習筆記。
雖然這種純數學的東西放在神經網路的學習筆記中好像也不太對,但是確實是學習神經網路的時候遇到的,所以就勉強記錄在內。
期望與算數平均數
無論是期望還是算數平均數,從大的概念來說都是求的一個均值,不過建立在的不同的基礎上。
我們來看一個樣本數為100的樣本集合 { ( x 1 , p 1 ) , ( x 2 , p 2 ) , ⋅ ⋅ ⋅ , ( x 100 , p 100 ) } \{(x_1,p_1),(x_2,p_2),···,(x_{100},p_{100})\} {(x1,p1),(x2,p2),⋅⋅⋅,(x100,p100)}, x i x_i xi表示第 i i i個樣本, p i p_i pi代表第 i i i個樣本出現的概率。
期望就是指我們像現在這樣,能夠一眼就看穿整個樣本集合(即站在了高維一樣,主要是我不喜歡上帝視角這個名詞,所以不如說我們站在了高維[doge]),我們對整個集合一覽無餘,那麼我們就能很方便的求出這個集合的均值,即 ∑ i = 1 100 x i p i \sum_{i=1}^{100}x_ip_i ∑i=1100xipi。
但是假設我們遭受了降維打擊,也就是我們並不知道每個樣本出現的概率,我們只能在實驗中大膽假設,小心求證的時候,這就是算術平均值。比如我們實驗了5次,得到的資料為 { x 1 , x 25 , x 1 , x 86 , x 23 } \{x_1,x_{25},x_1,x_{86},x_{23}\} {x1,x25,x1,x86,x23},那麼我們在這五個結果中的算術平均值為 x 1 + x 25 + x 1 + x 86 + x 23 5 \frac{x_1+x_{25}+x_1+x_{86}+x_{23}}{5} 5x1+x25+x1+x86+x23。只有當我們實驗多次的時候,算術平均值才會與期望值相等。
所以總的來說,期望就是指我們知道整個資料集合,站在全域性角度上的一個均值,而算術平均值是我們只有一撮資料,針對這一撮資料的均值。
方差與均方誤差
我們還是沿用上一個100的樣本集合,只不過這裡將這個二元組擴充到三元組: { ( x 1 , y 1 , p 1 ) , ( x 2 , y 2 , p 2 ) , ⋅ ⋅ ⋅ , ( x 100 , y 100 , p 100 ) } \{(x_1,y_1,p_1),(x_2,y_2,p_2),···,(x_{100},y_{100},p_{100})\} {(x1,y1,p1),(x2,y2,p2),⋅⋅⋅,(x100,y100,p100)}, x i x_i xi代表著第 i i i個樣本的樣本值, y i y_i yi代表著第 i i i個樣本的真實值。
我們假設我們已經求出了這100個樣本值 x \boldsymbol x x的期望 μ \mu μ,方差的公式如下: σ 2 = 1 100 ∑ i = 1 100 ( x i − μ ) 2 \sigma^2=\frac{1}{100}\sum_{i=1}^{100}(x_i-\mu)^2 σ2=1001i=1∑100(xi−μ)2
對應的,均方誤差的公式如下:
M
S
E
=
1
100
∑
i
=
1
100
(
x
i
−
y
i
)
2
MSE=\frac{1}{100}\sum_{i=1}^{100}(x_i-y_i)^2
MSE=1001i=1∑100(xi−yi)2
注:放在N個樣本中,那麼對應的100的位置改為N就行了
那麼我們看到上面這兩個公式好像基本差別不大對吧,反正至少長得一樣,都差點認為是失散多年的好兄妹或者好姐弟了對吧,但是其實有如下兩個差別:
- 方差是隻針對某一項的(比如上面栗子中,只針對了樣本值 x \boldsymbol x x),而均方誤差是針對樣本值與真實值的;
- 方差是某一項與其均值的關係,而均方誤差是某一項與其真實值(輸出值)的關係。
所以總的來說,這兩者的區別如下:方差衡量的是資料與中心的偏離程度,均方誤差衡量的是樣本資料與真實資料(輸出資料)的偏離程度。
相關文章
- RMS與Std的差別:均方差與標準差
- 幾種型別神經網路學習筆記型別神經網路筆記
- 吳恩達《神經網路與深度學習》課程筆記(4)– 淺層神經網路吳恩達神經網路深度學習筆記
- 計算機網路複習筆記 - HTTP 1.0 / 1.1 / 2.0 的區別計算機網路筆記HTTP
- 《手寫數字識別》神經網路 學習筆記神經網路筆記
- python學習筆記–深拷貝與淺拷貝的區別Python筆記
- WAF與網路防火牆的區別防火牆
- 區塊鏈學習筆記與思考-4區塊鏈筆記
- 吳恩達《神經網路與深度學習》課程筆記(5)– 深層神經網路吳恩達神經網路深度學習筆記
- 誰可以詳細講講機器學習,深度學習,神經網路,卷積神經網路的區別以及應用場景機器學習深度學習神經網路卷積
- 吳恩達《卷積神經網路》課程筆記(4)– 人臉識別與神經風格遷移吳恩達卷積神經網路筆記
- python學習之isinstance與type的區別Python
- ??與?:的區別
- 深度學習與CV教程(4) | 神經網路與反向傳播深度學習神經網路反向傳播
- java字串“==”與“equals”的差異及與c#的區別Java字串C#
- Kubernetes 叢集網路:Flannel 與 Calico 的區別
- 神經網路模型與誤差逆傳播演算法神經網路模型演算法
- 再聊神經網路與深度學習神經網路深度學習
- 深度學習與圖神經網路深度學習神經網路
- go語言學習筆記(一):*和&的區別Go筆記
- this和super的區別和應用 學習筆記筆記
- 吳恩達《神經網路與深度學習》課程筆記(3)– 神經網路基礎之Python與向量化吳恩達神經網路深度學習筆記Python
- session與token有什麼區別?網路安全基礎學習Session
- 期望 與 機率論 學習筆記筆記
- ImportSelector與DeferredImportSelector的區別(spring4)ImportSpring
- slot 插槽筆記(與文件基本沒差別,僅作學習記錄)筆記
- 吳恩達《神經網路與深度學習》課程筆記(1)– 深度學習概述吳恩達神經網路深度學習筆記
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- SDN與傳統網路運維的區別-Elinkcloud運維Cloud
- 基於負相關誤差函式的4整合BP神經網路matlab建模與模擬函式神經網路Matlab
- 【機器學習】搭建神經網路筆記機器學習神經網路筆記
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 全連線神經網路學習筆記神經網路筆記
- 卷積神經網路學習筆記——SENet卷積神經網路筆記SENet
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 機器學習中偏差bias和方差variance區別機器學習
- 【學習筆記】make 和 new 關鍵字的區別筆記
- Tomcat與Nginx有什麼區別?linux學習路線TomcatNginxLinux