几乎必然收敛和依概率收敛

      我最近在看书,觉得几乎必然收敛 (almost surely convergence) 和 依概率收敛 (convergence in probability) 有些生涩难懂。在阅读了一些资料之后发现,几乎必然收敛和依概率收敛难懂是有原因的。原因就在于我们心中的概率观念来自经典概率论,而不是来自基于测度论的现代概率论。一旦带入现代概率论框架,几乎必然收敛和依概率收敛就变得明晰起来。

Snip20160310_32

概率、几乎必然收敛和依概率收敛

      为了阅读方便,我们先介绍相关概念的定义,包括:现代概率论中概率的定义,随机变量的定义,几乎必然收敛的定义和依概率收敛的定义。

      定义1:设 E 是随机试验,S 是它的样本空间。对于 E 的每一事件 A (S 的一个子集)赋于一个实数,记为 P(A),称为事件 A 的概率。这里 P(·) 是一个集合函数,P(·) 要满足下列条件:
      (1) 非负性:对于每一个事件A,有P(A)≥0;
      (2) 规范性:对于必然事件Ω,有P(Ω)=1;
      (3) 可数可加性:设 A_1A_2 ,...是两两互不相容的事件,即对于i≠j, A_i \cap A_j=\phi ,(i,j=1,2,...),则有P( A_1 \cup A_2 \cup ... )=P( A_1 )+P( A_2 ) + ...

      学过测度论的童鞋可以发现,概率P(·)是样本空间的测度函数。如果没有学过测度论,可以简单的理解为,概率P(·)是衡量事件A某一个方面“大小”的测量函数。我们接着引入随机变量的定义。

      定义2:设E是随机试验,S是它的样本空间。对于S中每一元素 \omega 赋于一个实数,记为 X(\omega) 。函数 X:\omega \rightarrow R 是随机变量。

      随机变量是从样本空间S到实数空间R的函数。随机变量序列 \{X_n\} 本质就是函数列,而几乎必然收敛和依概率收敛本质上是函数列的收敛。

      对于S中的任意一元素,我们都能判断在这一元素上,随机变量函数列 \{X_n\} 是否收敛于随机变量函数 X 。我们将S划分为两个部分,一部分 O_1 中元素上 \{X_n\} 收敛于 X ,另一部分 O_2 元素上 \{X_n\} 不收敛于 X 。如果 O_2 很“小”,“小”到用测量函数P(·)得到的测量值为0,那么随机变量函数列 \{X_n\} 以某一种方式收敛于随机变量函数 X 。没错,这种收敛方式就是几乎必然收敛。下面就是几乎必然收敛的定义:

      定义3:随机变量序列 \{X_n\} 几乎必然收敛收敛于随机变量 X ,即 X_n \overset{as}{\rightarrow} X ,当且仅当
\begin{eqnarray}
P(lim_{n \rightarrow \infty}|X_n - X| < \epsilon) = 1 \end{eqnarray} 其中 \epsilon 为任意正实数。

      举一个几乎必然收敛的例子,在闭区间[0,1]上的均匀分布。定义随机变量 X_n(s) = s + s^n ,定义随机变量 X(s) = s 。根据定义,我们知道 lim_{n \rightarrow \infty}|x_n-x| < \epsilon 在[0,1)区间内都成立,而p([0,1)) = 1。立得随机变量序列 \{X_n\} 几乎必然收敛收敛于随机变量 X

      几乎必然收敛很好地反应了随机变量序列 \{X_n\} 和随机变量 X 之间的收敛关系。但有些情况超过了几乎必然收敛能够表达的范围。比如样本空间S=(0,1),概率为P([a,b]) = b - a( 0 < a \le b < 1 ),即均匀分布。令随机变量 X_n(\phi) = I(\phi \in [\frac{k}{2^{i}},\frac{k+1}{2^{i}}]) ,其中 n = 2^i + k ,再令 X(\phi) = 0 。可以看到对于S中的任意一点, \{X_n\} 并不收敛于 X ,即 \{X_n\} 不几乎必然收敛于 X 。但我们很明显地看到,集合 \{\phi: X_n(\phi) - X(\phi) \neq 0\} 越来越“小”。我们用依概率收敛描述这种现象。

      定义4:随机变量序列 \{X_n\} 依概率收敛于随机变量 X ,即 X_n\overset{p}{\rightarrow}X ,当且仅当
\begin{eqnarray}
lim_{n \rightarrow \infty} P(|X_n - X| < \epsilon) = 1 \end{eqnarray} 其中 \epsilon 为任意正实数

几乎必然收敛强于依概率收敛

      根据上面介绍,随机变量序列 X_n 可能依概率收敛但不几乎必然收敛于 X 。说明依概率收敛不能推导出几乎必然收敛。那么几乎必然收敛是否能推导出依概率收敛呢?答案是可以的。

      定理1:几乎必然收敛能够推导出依概率收敛,即 X_n \overset{as}{\rightarrow} X \Rightarrow X_n \overset{p}{\rightarrow} X

      证明:任取一个正实数 \epsilon > 0
\begin{eqnarray}
A_n = \underset{m \ge n }{\cup}\{\phi||x_m(\phi) - x(\phi)| > \epsilon\} \nonumber
\end{eqnarray}
因为 A_{n+1} \subseteq A_n ,故而我们有
\begin{eqnarray}
A_{\infty} = \underset{n \ge 1}{\cap} A_n \nonumber
\end{eqnarray}

      让 O = \{\phi|\underset{n \rightarrow \infty}{lim}x_n(\phi) = x(\phi)\} 。因为几乎必然收敛,P(O) = 1。对于O中任意元素 \phi ,我们能找到一个正整数N,使得n > N时有 |x_n(\phi) - x(\phi)| < \epsilon 。从而很容易看出O中任意元素不属于 A_{\infty} 。故而 P(A_{\infty}) < P(\overset{-}{O}) = 0 ,继而 \begin{eqnarray} P(|X_n-X| \ge \epsilon) < P(A_n) \underset{n \rightarrow \infty}{\rightarrow} 0 \nonumber \end{eqnarray}

此条目发表在数学基础分类目录。将固定链接加入收藏夹。

几乎必然收敛和依概率收敛》有 13 条评论

  1. zb说:

    不明觉厉????

  2. yuey说:

    以前学过现在忘的光光 的了,偶然看到你写的这篇,总结的不错啊:)

  3. 不好意思,上文中几乎必然收敛(定义三)和依概率收敛(定义四)似乎是相同的。文中几乎必然收敛的第二个例子中为什么对于任意S中一点函数Xn不是收敛到0呢?Xn等于0的概率不是趋近于1吗?请您赐教

    • 几乎必然收敛:p(趋近于无限)= 1,依概率收敛:lim p() = 1。就是概率和极限的位置互换了。至于几乎必然收敛的例子。对于任意一个x和n,一定存在k>n,使得X_k(x) = 1 ,故 Xn 函数不收敛到0。

  4. 白噪声说:

    这个是什么平台啊,好专业。

  5. cx_2016说:

    几乎必然收敛:”缺失的小洞洞“的勒贝格测度=0

  6. no1xsyzy说:

    TeX公式中$\lim$来表示极限,字体大约是Upright Text。用$lim$太难看了

  7. Ben说:

    写的非常好 特别是举的例子简明好懂。谢谢

  8. 匿名说:

    受益匪浅正在做笔记谢谢~

  9. 匿名说:

    令随机变量
    X
    n
    (ϕ)=I(ϕ∈[
    k
    2
    i

    ,
    k+1
    2
    i

    ])
    ,其中
    n=
    2
    i
    +k
    ,再令
    X(ϕ)=0
    。可以看到对于S中的任意一点,
    {
    X
    n
    }
    并不收敛于
    X
    ,即
    {
    X
    n
    }
    不几乎必然收敛于
    X
    。但我们很明显地看到,集合
    {ϕ:
    X
    n
    (ϕ)−X(ϕ)≠0}
    越来越“小”。
    我这个例子没有看明白,您可不可以详解一下

发表评论

电子邮件地址不会被公开。