跳到主要內容

[數理統計] 一致性估計 與 弱大數法則

以下討論 點估計理論 中一些比較重要的性質與應用。

令 $\Theta$ 為某參數空間。

===================
Definition: (Point) Estimator and Estimate
給定 $X_1,...,X_n$ 為 i.i.d. 隨機試驗 來自 pdf $f(x;\theta)$ 其中 $\theta \in \Theta$ 為未知參數,現在定義新的隨機變數 $\widehat \theta$ 為  $X_1,...,X_n$ 的函數,寫為
\[
\widehat \theta := \widehat \theta(X_1,...,X_n)
\]則我們稱此 $\widehat \theta$ 為用以估計參數  $\theta$ 的估計量 (estimator of $\theta$),且若我們能取得隨機樣本的觀察值,比如 $X_1 = x_1,X_2=x_2,...,X_n = x_n$ 則我們稱
\[
\widehat \theta := \widehat \theta(x_1,...,x_n)
\]為參數 $\theta$ 的估計值(estimate)
===================

Comments:
1. 參數 $\theta$ 為分配中的未知常數,但估計量 $\widehat \theta$ 為隨機變數
2. 在數理統計中的 隨機取樣 與 機率論中 iid 隨機變數 視為等價敘述。
3. $\widehat \theta$為  $X_1,...,X_n$ 的函數,但與 $\theta$ 無關!在數理統計中稱此與待估計參數無關的性質為 統計量 (statistic)。



那麼怎樣的估計量才算是 "好" 的估計量?以下給出一些常見的 "好" 估計量定義。


===================
Definition: What "Good" Properties Should an Estimator Hold? 
令 \[
\widehat \theta := \widehat \theta(X_1,...,X_n)
\] 為某未知參數 $\theta$ 的估計量,則
我們稱 $\widehat \theta $ 為 不偏估計量(unbiased estimator) 若 $E[\widehat \theta] = \theta$
我們稱 $\widehat \theta$ 為 漸進不偏估計量 (asymptotic unbiased estimator) 若 $E[\widehat \theta] \to \theta$ 當 $n \to \infty$
我們稱 $\widehat \theta$ 為 一致估計量 (consistent estimator) 若 \[\widehat \theta \mathop  \to \limits^P \theta
\]亦即給定任意 $\varepsilon >0$ 我們有
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]
===================

Comments:
1. 不偏估計在直覺上表示平均而言,估計量 $\widehat \theta$ 不會 高估 或者 低估 參數 $\theta$。
2. 一致性估計則表示隨機試驗夠多之後,對參數的估計量 $\widehat \theta$ 與 真實參數 $\theta$ 幾乎沒有差別。


以下我們簡介一個非常重要的點估計結果定理:若估計量為 不偏  或者漸進不偏,且 估計量 $$的變異收斂到 $0$ 則保證此估計量為一致估計量。

===================
Theorem: Consistency Estimator (Sufficient Condition for Probability Convergent Estimator)
令 $\widehat \theta := \widehat \theta(X_1,...,X_n)$ 為 $\theta \in \Theta$ 的 estimator,若 $E[\widehat \theta] = \theta$ 或 $E[\widehat{\theta}] \to \theta$ 且 $Var(\widehat{\theta}) \to 0$ 當 $n \to \infty$ 則
\[\widehat \theta \mathop  \to \limits^P \theta
\]===================

Proof:
要證明 $\widehat \theta \mathop  \to \limits^P \theta $ 由機率收斂定義可知,給定 $\varepsilon >0$ 我們要證明
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]故首先觀察
\[
P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = P\left( {{{\left( {\hat \theta  - \theta } \right)}^2} \geqslant {\varepsilon ^2}} \right) \leqslant \frac{{E\left[ {{{\left( {\hat \theta  - \theta } \right)}^2}} \right]}}{{{\varepsilon ^2}}}\;\;\;\;\;\;\; (*)
\]上述不等式成立是因為利用了 Generalized Chebyshev's inequality。現在我們觀察
 \begin{align*}
  E \left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right]
&= E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right] + E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] \hfill \\
  & = E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)}^2} + 2\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right) + {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] \hfill \\
  & = \underbrace {E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)}^2}} \right]}_{ = Var\left( {\widehat \theta } \right)} + \underbrace {2E\left[ {\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right)} \right]}_{ = 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right]} \\
&\;\;\;\;\; + \underbrace {E\left[ {{{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right]}_{ = {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \hfill \\
 &  = Var\left( {\widehat \theta } \right) + 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right] + {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2} \hfill \\
\end{align*}
上述結果用到了 $E[\widehat{\theta}] = constant$ 故
\[\left\{ \begin{align*}
  &E\left[ {{{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] = {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2}; \hfill \\
  &2E\left[ {\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right)} \right] = 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)\underbrace {E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right]}_{ = 0} = 0 \hfill \\
\end{align*}  \right.\]故
\[E\left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right] = Var\left( {\widehat \theta } \right) + {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2}\]現在將此結果代入 $(*)$ ,可得
\begin{align*}
  P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right) &\leqslant \frac{{E\left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right]}}{{{\varepsilon ^2}}} \hfill \\
  & = \frac{{Var\left( {\widehat \theta } \right) + {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}}}{{{\varepsilon ^2}}} \to \frac{1}{\varepsilon^2 }\left( {0 + 0} \right) = 0 \hfill \\
\end{align*}
又因為  機率測度恆正,我們有 $0 \leq P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right)  \to 0 $ 由極限的夾擊定理可知
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]故此得證。 $\square$


Comments:
在數理統計中,一致估計 與 機率論中的 機率收斂為等價。


上述定理可用來非常快速的證明弱大數法則 WLLN:亦即用 一組隨機試驗的 樣本平均數 作為 估計量來估計平均可以保證 機率收斂。

=============
Theorem 2: Weak Law of Large Numbers
令 $X_1,X_2,...$ 為 i.i.d. 隨機變數 數列 且具有共同 $E[X_1] = \mu$ 與變異數 $Var(X_1) = \sigma^2 < \infty$ 現在令
\[
\bar X := \frac{1}{n} \sum_{i=1}^n X_i
\]則
\[
\bar X \mathop  \to \limits^P \mu
\]=============

Proof:
此結果可利用前述 Consistency Estimator Theorem 求證,也就是把 $\widehat \theta := \bar X$ 且 $\theta := \mu$。則我們僅需證明 $\bar X$ 為不偏估計 ($E[\bar X] = \mu$) 或者 漸進不偏估計 ($E[\bar X] \to \mu$),且$\bar X$變異數收斂到 $0$ 即可。故現在觀察
\begin{align*}
  E\left[ {\bar X} \right] &= E\left[ {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right] \hfill \\
   &= \frac{1}{n}E\left[ {\sum\limits_{i = 1}^n {{X_i}} } \right] \hfill \\
  & = \frac{1}{n}\sum\limits_{i = 1}^n {E\left[ {{X_i}} \right]}  \hfill \\
  &\mathop  = \limits^{X_i \; i.i.d.} \frac{1}{n}\sum\limits_{i = 1}^n {E\left[ {{X_1}} \right]}  \hfill \\
   &= \frac{1}{n}nE\left[ {{X_1}} \right] = E\left[ {{X_1}} \right] = \mu  \hfill \\
\end{align*} 故我們知道 $\bar X$ 為不偏估計量,現在我們僅需證明 變異數收斂到 $0$ 。觀察
\begin{align*}
  Var\left( {\bar X} \right) &= Var\left( {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right) \hfill \\
  &\mathop  = \limits^{X_i \; i.i.d.} \frac{1}{{{n^2}}}\sum\limits_{i = 1}^n {Var\left( {{X_i}} \right)}  \hfill \\
  & = \frac{1}{{{n^2}}}nVar\left[ {{X_1}} \right] \hfill \\
 &  = \frac{1}{{{n^2}}}n{\sigma ^2} = \frac{1}{n}{\sigma ^2} \to 0 \hfill \\
\end{align*} 故由 consistency theorem ,
\[
\bar X \mathop  \to \limits^P \mu
\]至此得證。 $\square$

留言

  1. 总结得太好了,帮助了我理解了许多之前不明白的地方。希望您可以继续更新。

    回覆刪除
  2. 可否請教:
    "Theorem: Consistency Estimator (Sufficient Condition for Probability Convergent Estimator)"
    這一段的資料來源,或是老師您自己推導的呢?
    謝謝!

    回覆刪除

張貼留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質