UA MATH567 高維統計II 隨機向量2 各向同性的隨機向量
UA MATH567 高維統計II 隨機向量2 各向同性的隨機向量
上一講討論隨機向量L2範數的concentration的時候假設隨機向量每個分量的方差為1,這其實是一種常用的假設,這一講我們的目標就是討論這種假設,可以把它理解為一元隨機變數方差為1的假設的推廣。
各向同性 (Isotropy) 稱一個隨機向量是各向同性的如果它的協方差矩陣為單位矩陣。對於均值為 μ \mu μ,協方差為 Σ \Sigma Σ的隨機向量 X X X,我們可以定義 Z = Σ − 1 / 2 ( X − μ ) Z =\Sigma^{-1/2}(X-\mu) Z=Σ−1/2(X−μ),顯然 Z Z Z就是一個零均值各向同性的隨機向量。
各向同性的充要條件
n
n
n維隨機向量
X
X
X各向同性等價於
∀
x
∈
R
n
\forall x \in \mathbb{R}^n
∀x∈Rn,
E
⟨
X
,
x
⟩
2
=
∥
x
∥
2
2
E \langle X,x \rangle^2 = \left\| x\right\|_2^2
E⟨X,x⟩2=∥x∥22
其中 ⟨ X , x ⟩ \langle X,x \rangle ⟨X,x⟩表示歐氏內積。
說明
E
⟨
X
,
x
⟩
2
=
E
[
x
T
X
X
T
x
]
=
x
T
E
[
X
X
T
]
x
=
∥
x
∥
2
2
=
x
T
x
⇔
E
[
X
X
T
]
=
Σ
=
I
n
E \langle X,x \rangle^2 = E[x^TXX^Tx]=x^TE[XX^T]x=\left\| x\right\|_2^2=x^Tx \\ \Leftrightarrow E[XX^T] = \Sigma = I_n
E⟨X,x⟩2=E[xTXXTx]=xTE[XXT]x=∥x∥22=xTx⇔E[XXT]=Σ=In
各向同性的性質
- 如果 X X X是 n n n維各向同性隨機向量,則 E ∥ X ∥ 2 2 = n E\left\| X \right\|_2^2=n E∥X∥22=n
- 如果 X , Y X,Y X,Y是獨立的 n n n維各向同性隨機向量,則 E ⟨ X , Y ⟩ 2 = n E\langle X,Y \rangle^2=n E⟨X,Y⟩2=n
- 如果 X , Y X,Y X,Y是獨立的 n n n維零均值各向同性隨機向量,則 E ∥ X − Y ∥ 2 2 = 2 n E\left\| X-Y \right\|_2^2=2n E∥X−Y∥22=2n
說明
第一條,
E
∥
X
∥
2
2
=
E
[
X
T
X
]
=
E
[
t
r
(
X
T
X
)
]
=
E
[
t
r
(
X
X
T
)
]
=
t
r
(
E
[
X
X
T
]
)
=
t
r
(
I
n
)
=
n
E\left\| X \right\|_2^2 = E[X^TX]=E[tr(X^TX)]=E[tr(XX^T)]=tr(E[XX^T])=tr(I_n)=n
E∥X∥22=E[XTX]=E[tr(XTX)]=E[tr(XXT)]=tr(E[XXT])=tr(In)=n
第二條, E ⟨ X , Y ⟩ 2 = E [ X T Y Y T X ] = E X [ E Y [ X T Y Y T X ] ] = E X [ X T I n X ] = E X [ X T X ] = n E\langle X,Y \rangle^2=E[X^TYY^TX]=E_X[E_Y[X^TYY^TX]]=E_X[X^TI_nX]=E_X[X^TX]=n E⟨X,Y⟩2=E[XTYYTX]=EX[EY[XTYYTX]]=EX[XTInX]=EX[XTX]=n
第三條, E ∥ X − Y ∥ 2 2 = E [ ( X − Y ) T ( X − Y ) ] = E [ X T X ] − E [ X T Y ] − E [ Y T X ] + E [ Y T Y ] = E [ X T X ] + E [ Y T Y ] = 2 n E\left\| X-Y \right\|_2^2=E[(X-Y)^T(X-Y)]=E[X^TX]-E[X^TY]-E[Y^TX]+E[Y^TY]=E[X^TX]+E[Y^TY]=2n E∥X−Y∥22=E[(X−Y)T(X−Y)]=E[XTX]−E[XTY]−E[YTX]+E[YTY]=E[XTX]+E[YTY]=2n
幾乎正交的隨機向量:根據各向同性的性質,假設
X
,
Y
X,Y
X,Y是獨立的
n
n
n維各向同性隨機向量,定義
X
0
=
X
∥
X
∥
2
,
Y
0
=
Y
∥
Y
∥
2
X_0=\frac{X}{\left\|X\right\|_2},Y_0=\frac{Y}{\left\|Y\right\|_2}
X0=∥X∥2X,Y0=∥Y∥2Y
則
E
⟨
X
0
,
Y
0
⟩
=
E
⟨
X
,
Y
⟩
∥
X
∥
2
∥
Y
∥
2
E\langle X_0,Y_0 \rangle=\frac{E\langle X,Y \rangle}{\left\|X\right\|_2\left\|Y\right\|_2}
E⟨X0,Y0⟩=∥X∥2∥Y∥2E⟨X,Y⟩
根據各向同性的性質第一條與第二條,
E
⟨
X
,
Y
⟩
∥
X
∥
2
∥
Y
∥
2
=
1
n
\frac{E\langle X,Y \rangle}{\left\|X\right\|_2\left\|Y\right\|_2} = \frac{1}{\sqrt{n}}
∥X∥2∥Y∥2E⟨X,Y⟩=n1
另外,我們還可以計算
E
⟨
X
0
,
Y
0
⟩
2
=
E
X
0
T
Y
0
Y
0
T
X
0
=
E
X
T
Y
Y
T
X
∥
X
∥
2
2
∥
Y
∥
2
2
=
1
n
E\langle X_0,Y_0 \rangle^2 =EX_0^TY_0Y_0^TX_0=\frac{EX^TYY^TX}{\left\|X\right\|_2^2\left\|Y\right\|_2^2}=\frac{1}{n}
E⟨X0,Y0⟩2=EX0TY0Y0TX0=∥X∥22∥Y∥22EXTYYTX=n1
這樣就比較明顯了,
⟨
X
0
,
Y
0
⟩
→
L
2
0
\langle X_0,Y_0 \rangle \to_{L^2} 0
⟨X0,Y0⟩→L20
也就是當 n n n足夠大時, X 0 X_0 X0與 Y 0 Y_0 Y0按 L 2 L^2 L2趨於正交。
相關文章
- UA MATH567 高維統計II 隨機向量5 亞高斯隨機向量H5隨機
- UA MATH567 高維統計II 隨機向量1 隨機向量的範數H5隨機
- UA MATH567 高維統計II 隨機向量6 亞高斯隨機向量的應用: 半正定規劃H5隨機
- 向量(高階的隨機化應用)隨機
- 隨機向量特徵函式的求法隨機特徵函式
- UA MATH567 高維統計III 隨機矩陣7 亞高斯矩陣的應用:Stochastic Block Model與社群發現 問題描述H5隨機矩陣ASTBloC
- MATLAB中如何生成指定範圍的隨機整數向量Matlab隨機
- UA MATH567 高維統計I 概率不等式8 亞指數範數H5
- UA MATH567 高維統計I 概率不等式11 Azuma不等式H5
- UA MATH567 高維統計I 概率不等式10 Bernstein不等式H5
- 支援向量機原理(一) 線性支援向量機
- 支援向量機
- 計算機程式的思維邏輯 (34) – 隨機計算機隨機
- 計算機程式的思維邏輯 (34) - 隨機計算機隨機
- 統計學習方法(四) 支撐向量機
- 理解支援向量機
- c++ 一維向量,和二維向量的基本使用C++
- [Z]Oracle 的隨機數、隨機日期和時間、隨機字串Oracle隨機字串
- UA MATH567 高維統計I 概率不等式7 亞指數性與亞指數分佈H5
- 隨機之美,隨機森林隨機森林
- CWE-329: 密碼分組連結模式未使用隨機初始化向量密碼模式隨機
- 機器學習:支援向量機(SVM)機器學習
- 機器學習——支援向量機(SVM)機器學習
- 支援向量機原理(二) 線性支援向量機的軟間隔最大化模型模型
- java_隨機數(統計例項)Java隨機
- [譯] 支援向量機(SVM)教程
- 機器學習——支援向量機SVM(一)機器學習
- 【機器學習】支援向量機分類機器學習
- 【概率論】一維隨機變數隨機變數
- python生成隨機數、隨機字串Python隨機字串
- [隨機數詳解]生成一個隨機數,生成指定範圍的隨機數及隨機陣列去重隨機陣列
- 計算機隨機數的產生 (轉)計算機隨機
- 機器學習之支援向量機的超平面機器學習
- numpy2.隨機抽樣隨機
- 隨機獲取到的高質量圖片隨機
- 支援向量機原理(三)線性不可分支援向量機與核函式函式
- 隨機題隨機
- 隨機排序隨機排序