ProbabilityTheory

请注意,本文最近一次更新于:2022-06-28,文章内容可能已经不具有时效性,请谨慎参考

本文最后更新于:2022年6月28日星期二晚上9点24分 +08:00

本章将以NKU的概统教材为顺序,梳理NKU版本教材下概统的知识点,知识点更新将随课程进度同步


概率论与数理统计

概率论的基本概念

随机试验,样本空间,随机事件

随机试验:满足相同条件下可重复,能事先明确试验所有可能结果,在一次试验前无法确定哪一个结果出现的试验称为随机试验。

样本空间:将随机试验 $E$ 的所有可能结果组成的集合称为 $E$ 的样本空间。 $E$ 的每个结果称为样本点。

随机事件:称试验 $E$ 的样本空间 $S$ 的子集为 $E$ 的随机事件。

和事件,积事件,差时间,互斥事件与对立事件

交换律,结合律,分配律,德摩根律

频率与概率

频率:相同条件下,进行了 $n$ 次试验,事件 $A$ 发生的次数 $n_A$ 称为事件 $A$ 发生的频数,比值 $\frac{n_A}{n}$ 称为事件 $A$ 发生的频率,记为 $f_{n}(A)$ 。

概率:设 $E$ 是随机事件, $S$ 是它的样本空间。对于 $E$ 的每一个事件 $A$ 赋予一个实数,记为 $P(A)$ ,称为事件 $A$ 的概率,如果集合函数 $P(\cdot)$ 满足以下条件:

(1)非负性:对于每个事件 $A$ ,有 $P(A)\geq 0$ 。

(2)规范性:对于必然事件 $S$ ,有 $P(S)=1$ 。

(3)可列可加性:设 $A_1,A_2,\cdots$ 是两两不相容的事件,即对于 $A_{i}A_{j}=\emptyset ,i\neq j,i,j=1,2,\cdots$ ,有
$$
P(A_1\cup A_2\cup \cdots)=P(A_1)+P(A_2)+\cdots
$$

加法公式:对于任意两事件 $A,B$ 有

$$
P(A\cup B)=P(A)+P(B)-P(AB)
$$

古典概型

当随机试验满足样本空间内只有有限个元素,且每个基本事件发生的可能性相同,则称为等可能概型,又称古典概型

超几何分布

条件概率

条件概率:设 $A,B$ 是两个事件,且 $P(A)>0$ ,称

$$
P(B|A)=\dfrac{P(AB)}{P(A)}
$$

为在事件 $A$ 发生的条件下事件 $B$ 发生的条件概率。

乘法定理:设 $P(A)>0$ ,则有 $P(AB)=P(B|A)P(A)$ 。

乘法定理可以推广到多个事件的积事件的情况。

全概率公式:设试验 $E$ 的样本空间为 $S$ , $A$ 为 $E$ 的事件, $B_1,B_2,\cdots ,B_n$ 为 $S$ 的一个划分,且 $P(B_i)>0\quad (i=1,2,\cdots ,n)$ ,则
$$
P(A) = P(A|B_1)P(B_1)+P(A|B_2)P(B_2) + \cdots + P(A|B_n)P(B_n)
$$

贝叶斯公式:设试验 $E$ 的样本空间为 $S$ , $A$ 为 $E$ 的事件, $B_1,B_2,\cdots ,B_n$ 为 $S$ 的一个划分,且 $P(A)>0,P(B_i)>0\quad (i=1,2,\cdots ,n)$ ,则
$$
P(B_i|A)=\dfrac{P(A|B_i)P(B_i)}{\displaystyle\sum_{j=1}^{n}{P(A|B_j)P(B_j)}},i=1,2,\cdots,n
$$

其中 $P(B_i)$ 称为先验概率, $P(B_i|A)$ 称为后验概率, $P(A|B_i)$ 称为似然概率。

独立性

独立:设 $A,B$ 是两事件,如果满足等式 $P(AB)=P(A)P(B)$ ,则称事件 $A,B$ 相互独立。简称 $A,B$ 独立。

设 $A,B$ 是两事件,且 $P(A)>0$ 。若 $A,B$ 相互独立,则 $P(B|A)=P(B)$ 。反之亦然。

若事件 $A$ 与 $B$ 相互独立,则下边各对事件也相互独立:

$$
A\text{与} \overline{B} \quad \overline{A}\text{与} {B} \quad \overline{A}\text{与} \overline{B}
$$

一般的,设 $A_1,A_2,\cdots,A_n$ 是 $n$ 个事件,如果对于其中任意2个,任意3个,···,任意 $n$ 个事件的积事件的概率,都等于各事件概率之积,则称事件 $A_1,A_2,\cdots,A_n$ 相互独立

随机变量及其分布

随机变量

  • 设随机试验的样本空间S = {e},X=X(e)是定义在样本空间S上的实值单值函数,则称X=X(e)为随机变量

  • 随机变量分为

    1. 离散型随机变量
    2. 非离散型随机变量,而非离散型随机变量又包括
      • 连续型随机变量
      • 其他类型

        离散型随机变量的分布律

  • $\color{yellow}{离散型随机变量的定义}$
    有些随机变量,它全部可能的取值是有限个或可列无限多个,这样的随机变量称为离散型随机变量

  • $\color{yellow}{离散型随机变量的表示}$
    $$\begin{aligned}
    P(X = x_k) = p_k,k = 1,2,3\cdots
    \end{aligned}$$
    上式称为离散型随机变量的分布律

    • $p_k$满足如下两个条件
      1. $0 \leq p_k$
      2. $\sum_{i=1}^{\infty}p_k = 1$
  • $\color{yellow}{离散型随机变量的分布律}$

    • $\color{yellow}{几何分布}$
      几何分布又称为首次成功模型
      $$\begin{aligned}
      P(X=k) = p(1-p)^{k-1} \quad k =1,2,3\cdots
      \end{aligned}$$
    • $\color{yellow}{(0-1)分布}$
      若随机变量的X值只能取0或1两个值,那么随机变量的分布律为
      $$\begin{aligned}
      P(X = k) = p^k(1-p)^{1-k} \quad k=0,1 \quad (0<p<1)
      \end{aligned}$$
    • $\color{yellow}{伯努利试验与二项分布}$
      若试验E只有两个结果$A,\bar{A}$,则称试验E为伯努利试验,将E独立重复地进行n次,则称这一串重复的独立试验为n重伯努利试验
      二项分布的分布律为
      $$\begin{aligned}
      P(X = k) = C_n^kp^{k}(1-p)^{1-k}=C_n^kp^{k}q^{1-k} \quad (q=1-p)
      \end{aligned}$$
      等式右侧恰好是二项式$(p+q)^n$的展开式中出现$p^k$的那一项,我们称随机变量X服从参数为n,p的二项分布,并记为X~$b(n,p)$
      当n=1时二项分布就退化为(0-1)分布
    • $\color{yellow}{泊松分布与泊松定理}$
      设随机变量X所有可能的取值为$0,1,2\cdots$,而各个取值的概率为
      $$\begin{aligned}
      P(X= k) = \frac{\lambda^k e^{-\lambda}}{k!} \quad (k=1,2\cdots)
      \end{aligned}$$
      其中$\lambda$是大于零的常数,则称随机变量X服从参数为$\lambda$的泊松分布,记为X~$\pi(\lambda)$
      由概率的公理化定义可知
      $$\begin{aligned}\sum_{k=1}^{\infty}P(X=k) = 1\end{aligned}$$
      因此
      $$\begin{aligned}
      \sum_{k=1}^{\infty}P(X = k) = \sum_{k=1}^{\infty}\frac{\lambda^k e^{-\lambda}}{k!} = e^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k}}{k!} = 1 \Rightarrow \sum_{k=1}^{\infty}\frac{\lambda^{k}}{k!} = e^{\lambda}
      \end{aligned}$$
      泊松定理 设$\lambda$为大于零的常数,n是任意正整数,设 $np_n = \lambda$,则对任一固定的非负整数k,有
      $$\begin{aligned}
      \lim_{n\to \infty}C_n^k p_n^k (1-p_n)^{1-k} = \frac{\lambda^k e^{-\lambda}}{k!}
      \end{aligned}$$
      这意味着当n很大而概率p很小时,可以用泊松分布近似计算二项分布

      随机变量的分布函数

  • $\color{yellow}{随机变量的分布函数定义}$:设X是一个随机变量,x是任意函数,函数
    $$\begin{aligned}
    F(x) = P(X\leq x) \quad -\infty <x< \infty
    \end{aligned}$$
    称为X的分布函数

  • $\color{yellow}{重要公式}$
    $$\begin{aligned}
    P(x_1<X \leq x_2) = F(x_2) - F(x_1)
    \end{aligned}$$
    $$\begin{aligned}
    P(X>a) = 1 - F(a)
    \end{aligned}$$
    $$\begin{aligned}
    P(x_1<X < x_2) = F(x_2) - F(x_1) - P(X=x_2)
    \end{aligned}$$

  • $\color{yellow}{分布函数的基本性质}$

    1. $F(x)$是一个不减函数(这是因为$F(x)$函数之间的运算表述的是在某一段区间内的概率,而概率具有非负性)
      $$\begin{aligned}
      F(x_2) - F(x_1) = P(x_1<X\leq x_2)≥0
      \end{aligned}$$
    2. $0\leq F(x)\leq 1$,且
      $$\begin{aligned}
      F(-\infty) = \lim_{x\to -\infty}F(x) = 0,F(\infty) = \lim_{x\to \infty}F(x) = 1
      \end{aligned}$$
    3. $F(x+0) = F(x)$,即F(x)是右连续的

    具备上述三条性质的函数F(x)必定是某个随机变量的分布函数,上述三个条件是判断一个函数是否是分布函数的重要判据

连续型随机变量及其概率密度

  • 如果对于随机变量X的分布函数F(x),存在非负可积函数f(x),使对于任意实数x,有
    $$\begin{aligned}
    F(x) = \int_{-\infty}^xf(t)dt
    \end{aligned}$$
    则X称为连续型随机变量,f(x)称为X的概率密度函数,简称概率密度
  • 概率密度函数f(x)具有以下性质
  1. f(x)≥0
  2. $\int_{-\infty}^{\infty}f(x)dx=1$
  3. 对于任意实数$x_1,x_2(x_1\leq x_2)$
    $$\begin{aligned}
    P(x_1< X\leq x_2) = F(x_2)-F(x_1)=\int_{x_1}^{x_2}f(x)dx
    \end{aligned}$$
  4. 若f(x)在点x处连续,则有$F’(x)=f(x)$
  • 需要指出的是,对于连续型随机变量,它取任一指定实数值a的概率均为零,即$P(X=a)\equiv 0$,但这并不意味着事件{X=a}为不可能事件,也就是说,不可能事件的概率一定为零,但概率为零不能说明事件是不可能事件
  • 几种连续型随机变量的分布类型
    • 均匀分布
      若连续型随机变量X具有概率密度
      $$f(x)=\begin{cases}
      \frac{1}{b-a}\quad,a<x<b \\
      0 \quad ,其他
      \end{cases}$$
      则称X在区间$(a,b)$上服从均匀分布,记为X~U$(a,b)$
      均匀分布的分布函数为
      $$F(x)=\begin{cases}
      0 \quad, x<a \\
      \frac{x-a}{b-a} \quad,a\leq x<b \\
      1 \quad, x\geq b
      \end{cases}$$
    • 指数分布
      若连续性随机变量X的概率密度为
      $$f(x)=\begin{cases}
      \frac{1}{\theta}e^{-\frac{x}{\theta}}\quad ,x>0 \\
      0 \quad ,其他
      \end{cases}$$
      其中$\theta>0$为常数,则称X服从参数为$\theta$的指数分布
      指数分布的分布函数为
      $$F(x)=\begin{cases}
      1 - e^{-\frac{x}{\theta}} \quad ,x>0 \\
      0 \quad,其他
      \end{cases}$$
      指数分布有一个重要的性质称为无记忆性
      $$\begin{aligned}
      P(X>s+t|X>s) = P(X>t)
      \end{aligned}$$
    • 正态分布
      若连续型随机变量X的概率密度为
      $$\begin{aligned}
      f(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} \quad ,-\infty<x<\infty
      \end{aligned}$$
      其中$\mu,\sigma(\sigma>0)$为常数,则称X服从参数为$\mu,\sigma$的正态分布高斯分布,记为X-N$(\mu,\sigma^2)$
      正态分布曲线关于直线$x=\mu$对称,并在$x=\mu$取得最大值,另外,正态分布函数在$x\pm\sigma$处有拐点,曲线以x轴为渐近线
      $\mu=0,\sigma=1$时的正态分布曲线称为标准正态分布,其概率密度和分布函数分别用$\varphi(x),\Phi(x)$表示
      $$\begin{cases}
      \varphi(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} \\
      \Phi(-x) = 1 -\Phi(x)
      \end{cases}$$
      对于一般地正态分布X-N $(\mu,\sigma^2)$,我们可以通过线性变换将之化为标准正态分布X-N (0,1)
      • 线性变换转换引理
        若XN $(\mu,\sigma^2)$,则取Z=$\frac{x-\mu}{\sigma}$ 就可将之转化为XN (0,1)

随机变量的函数的分布

  • 定理
    设随机变量X具有概率密度$f_X(x)$,$-\infty<x<\infty$,又设函数g(x)处处可导且函数严格单调,则Y=g(x)是连续型随机变量,其概率密度为
    $$\begin{aligned}
    f_Y(y)=\begin{cases}
    f_X[h(y)]h’(y) ,\quad \alpha<x<\beta \\
    0 ,\quad else
    \end{cases}
    \end{aligned}$$
    其中$\alpha=\min(g(-\infty),g(\infty))$,$\beta=\max(g(-\infty),g(\infty))$,h(y)是g(x)的反函数
  • 注意上述定理使用的条件要求函数是严格单调的,为此,若函数在所求指定区间内并非严格单调,则需要按照定义方式去解答,其步骤为
      1. 写出Y对X的反函数
      1. 写出Y的分布函数,将分布函数表征为X的分布函数
      1. 将写出的分布函数对Y求导数得到Y的概率密度函数
      1. 根据X的概率密度分布确定Y的概率密度函数表达式
      1. 注意一定要写出函数的定义域

多维随机变量及其分布

二维随机变量

  • 定义
    一般地,设E是一个随机试验,它的样本空间S={e},设X=X{e},Y=Y{e}是定义在S上的随机变量,由它们构成的向量(X,Y)叫做二维随机变量二维随机向量
  • 二维随机变量的性质不仅仅与每个变量本身有关,还与两个变量之间的关系有关
  • 二维随机变量分布函数的定义
    设(X,Y)是二维随机变量,对于任意实数x,y,二元函数:
    $$\begin{aligned}
    F(x,y)=P(X\le x \cap Y\le y)=P(X\le x,Y\le y)
    \end{aligned}$$
    称为二维随机变量的分布函数,也叫做联合函数
    将二维随机变量(X,Y)看成平面上的随机点的坐标,那么分布函数的几何意义可以看成以点(x,y)为顶点而位于该点左下方的无穷矩形区域内的概率
  • 分布函数的基本性质
      1. F(x,y)是变量x和y的不减函数,即对于任意固定的y,当$x_2>x_1$时$F(x_2,y)\ge F(x_1,y)$,当$y_2>y_1$时$F(x,y_2)\ge F(x,y_1)$
      1. $0\le F(x,y) \le 1$且
        • 对于任意固定的y,$F(-\infty,y)=0$
        • 对于任意固定的x,$F(x,-\infty)=0$
        • $F(-\infty,\infty)=0,F(\infty,\infty)=1$
      1. $F(x+0,y)=F(x,y),F(x,y+0)=F(x,y)$,即F(x,y)关于x右连续,关于y也右连续
      1. 对于任意$(x_1,y_1),(x_2,y_2),x_1<x_2,y_1<y_2$,下述不等式成立
        $$\begin{aligned}
        F(x_2,y_2)-F(x_1,y_2)-F(x_2,y_1)+F(x_1.y_1)\ge 0
        \end{aligned}$$
  • 如果二维随机变量(X,Y)全部可能取到的数值是有限对或可列无限多对,则称(X,Y)是离散型的随机变量
  • 设二维离散型随机变量(X,Y)所有可能取到的值为$(x_i,y_i)$,记$P(X=x_i,Y=y_i)=p_{ij}$,则由概率的定义有
    $$\begin{aligned}
    p_{ij}\ge 0, \quad \sum_{i=1}^{\infty}\sum_{j=1}^{\infty}p_{ij}=1
    \end{aligned}$$
  • 对于二维随机变量(X,Y)的分布函数F(x,y),如果存在非负可积函数f(x,y)使对于任意x,y有
    $$\begin{aligned}
    F(x,y)=\int_{-\infty}^{y}\int_{-\infty}^{x}f(u,v)dudv
    \end{aligned}$$
    则称(X,Y)是连续型二维随机变量,函数f(x,y)称为二维随机变量的概率密度,也叫做联合概率密度
  • 概率密度函数的性质
      1. $f(x,y)\ge 0$
      1. $\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}f(x,y)dxdy=1$
      1. 设G是xOy平面上的区域,点(X,Y)洛在G内的概率为
        $$\begin{aligned}
        P((X,Y)\in G)=\iint f(x,y)dxdy
        \end{aligned}$$
      1. 若f(x,y)在点(x,y)连续,则有
        $$\begin{aligned}
        \frac{\partial^2 F(x,y)}{\partial x\partial y}=f(x,y)
        \end{aligned}$$

边缘分布

  • 二维随机变量(X,Y)作为一个整体,具有分布函数F(x,y).而X,Y都是随机变量,各自也存在分布函数,将他们分别记为$F_X(x)$,$F_Y(y)$ ,依次称为二维随机变量(X,Y)关于X和Y的边缘分布函数.边缘分布函数可以由二维随机变量(X,Y)的分布函数确定
    $$\begin{aligned}
    F_X(x)=P(X\le x)=P(X\le x,Y<\infty)=F(x,\infty)
    \end{aligned}$$
    $$\begin{aligned}
    F_Y(y)=F(\infty,y)
    \end{aligned}$$

  • 对于离散型随机变量(以X为例,Y同理)
    $$\begin{aligned}
    F_X(x)=F(x,\infty)=\sum_{x_i\le x}\sum_{j=1}^{\infty}p_{ij}
    \end{aligned}$$
    $$\begin{aligned}
    P(X=x_i)=\sum_{j=1}^{\infty}p_{ij} \quad i=1,2\cdots
    \end{aligned}$$

    • 记符号
      $$\begin{aligned}
      p_{i\cdot}=\sum_{j=1}^{\infty}p_{ij}=P(X=x_i) \quad i=1,2\cdots
      \end{aligned}$$
      $$\begin{aligned}
      p_{\cdot j}=\sum_{i=1}^{\infty}p_{ij}=P(Y=y_j) \quad j=1,2\cdots
      \end{aligned}$$
      记号$p_{i\cdot}$后面的$\cdot$表示是由$p_{ij}$关于j求和后得到的,后者同理

    • 有了上面的公式和符号,我们引入边缘分布律的概念
      我们称$p_{i\cdot}$和$p_{\cdot j}$为(X,Y)关于X和Y的边缘分布律

  • 对于连续型随机变量(X,Y),设他的概率密度为f(x,y)
    $$\begin{aligned}
    F_X(x)=F(x,\infty)=\int_{-\infty}^x\Big[\int_{-\infty}^{\infty} f(x,y)dy\Big]dx
    \end{aligned}$$

    • 从上式容易看出随机变量X的概率密度为(Y同理)
      $$\begin{aligned}
      f_X(x)=\int_{-\infty}^{\infty}f(x,y)dy
      \end{aligned}$$
    • 分别称$f_X(x)$,$f_Y(y)$为(X,Y)关于X和关于Y的边缘概率密度
  • 二维正态分布
    $$\begin{aligned}
    f(x,y)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\exp\Big(\frac{-1}{2(1-\rho^2)}\Big[\frac{(x-\mu_1)^2}{\sigma^2_1}-2\rho\frac{(x-\mu_1)(x-\mu_2)}{\sigma_1\sigma_2}+\frac{(y-\mu_2)^2}{\sigma^2_2}\Big]\Big)
    \end{aligned}$$

    其中$\mu_1,\mu_2,\sigma_1,\sigma_2,\rho$都是常数,这就是二维正态分布

    • 通过计算二维正态分布的边缘概率密度我们可以发现,二维正态分布的两个边缘概率密度都是一维正态分布,并且都不依赖于参数$\rho$,即对于给定的$\mu_1,\mu_2,\sigma_1,\sigma_2$,不同的$\rho$对应不同的二维正态分布,但他们的边缘分布都是相同的.此外,单单知道两个边缘分布一般是不能确定其联合分布的

条件分布

  • 设(X,Y)是二维离散随机变量,其分布律为$P(X=x,Y=y)=p_{ij}$,其关于X和Y的边缘分布律分别为
    $$\begin{aligned}
    P(X=x_i)=p_{i\cdot}=\sum_{j=1}^\infty p_{ij}
    \end{aligned}$$
    $$\begin{aligned}
    P(Y=y_j)=p_{\cdot j}=\sum_{i=1}^\infty p_{ij}
    \end{aligned}$$
    • 条件分布律
      设(X,Y)是二维离散型随机变量,对于固定的j,若$P(Y=y_j)>0$,则称
      $$\begin{aligned}
      P(X=x_i|Y=y_j)=\frac{P(X=x_i,Y=y_j)}{P(Y=y_j)}=\frac{p_{ij}}{p_{\cdot j}}
      \end{aligned}$$
      为在$Y=y_j$条件下随机变量X的条件分布律,类似地定义X固定下对Y的条件分布律
    • 性质
      1. $P(X=x_i|Y=y_j)\ge 0$
      2. $\sum_{i=1}^\infty P(X=x_i|Y=y_j)=\frac{1}{p_{\cdot j}}\sum_{i=1}^\infty p_{ij}=1$
  • 对于连续型随机变量,由于对于任意的x,y,P{X=x},P{Y=y}=0恒成立,这时就不能直接使用上面公式计算条件概率
    • 条件概率密度
      设二维随机变量(X,Y)的概率密度为f(x,y),(X,Y)关于Y的边缘概率密度为$f_Y(y)$,对于固定的y,$f_Y(y)>0$,则
      $$\begin{aligned}
      f_{X|Y}(x|y)=\frac{f(x,y)}{f_Y(y)}
      \end{aligned}$$
      为在Y=y条件下X的条件概率密度
    • 条件分布函数
      $$\begin{aligned}
      \int_{-\infty}^{x}f_{X|Y}(x|y)\mathrm{dx}=\int_{-\infty}^x\frac{f(x,y)}{f_Y(y)}\mathrm{dx}
      \end{aligned}$$
      为在Y=y的条件下X的条件概率分布函数,记为$P(X\le x|Y=y)$或$F_{X|Y}(x|y)$

相互独立的随机变量

  • 定义
    设F(x,y)及$F_X(x),F_Y(y)$分别是二维随机变量(X,Y)的分布函数及边缘分布函数,若对于所有x,y有
    $$\begin{aligned}
    P(X\le x,Y\le y)&=P(X\le x)P(y\le y) \Leftrightarrow \
    F(x,y)&=F_X(x)F_Y(y)
    \end{aligned}$$
    则称随机变量X和Y是相互独立的
    • 设(X,Y)是连续型随机变量,$f(x,y),f_X(x),f_Y(y)$分别为(X,Y)的概率密度和边缘概率密度,则X和Y相互独立的充要条件等价于
      $$\begin{aligned}
      f(x,y)=f_X(x)f_Y(y)
      \end{aligned}$$
    • 当(X,Y)是离散型随机变量时,X和Y相互独立的条件等价于
      $$\begin{aligned}
      P(X=x_i,Y=y_j)=P(X=x_i)P(Y=y_j)
      \end{aligned}$$
    • 二维正态随机变量(X,Y)相互独立的充要条件是参数$\rho=0$
  • n维随机变量的推广
    关于n维随机变量的分布函数、概率密度函数、边缘概率分布函数、边缘概率密度函数和相互独立性的定义可以参照二维随机变量的定义推广,为避免冗杂,此文不加描述,只提出重要的定理
    • 定理
      设$(X_1,X_2,\cdots,X_m)$和$(Y_1,Y_2\cdots,Y_n)$相互独立,则$X_i$和$Y_j$相互独立,又若h,g是连续函数,则$h(X_1,X_2,\cdots,X_m)$和$g(Y_1,Y_2\cdots,Y_n)$相互独立

两个随机变量的函数的分布

  • Z=X+Y分布

    • 设(X,Y)是二维连续型随机变量,它具有概率密度f(x,y),则Z=X+Y为连续型随机变量,其概率密度为
      $$\begin{aligned}
      f_{X+Y}(z)=\int_{-\infty}^{\infty}f(z-y,y)\mathrm{dy}
      \end{aligned}$$
      $$\begin{aligned}
      f_{X+Y}(z)=\int_{-\infty}^{\infty}f(x,z-x)\mathrm{dx}
      \end{aligned}$$
    • 若此时X和Y还相互独立,设(X,Y)的边缘概率密度分别为$f_X(x),f_Y(y)$,则
      $$\begin{aligned}
      f_{X+Y}(z)=\int_{-\infty}^{\infty}f_X(z-y)f_Y(y)\mathrm{dy}
      \end{aligned}$$
      $$\begin{aligned}
      f_{X+Y}(z)=\int_{-\infty}^{\infty}f_X(x)f_Y(z-x)\mathrm{dx}
      \end{aligned}$$
    • 这两个公式称为$f_X(x),f_Y(y)$的卷积公式,记为$f_X$*$f_Y$
      $$\begin{aligned}
      &=\int_{-\infty}^{\infty}f_X(z-y)f_Y(y)\mathrm{dy} \
      &=\int_{-\infty}^{\infty}f_X(x)f_Y(z-x)\mathrm{dx}
      \end{aligned}$$
    • 有限个相互独立的正态随机变量的线性组合仍然服从正态分布
    • $\Gamma$分布
      设有n个相互独立的随机变量$X_i$,$X_i$服从参数为$\alpha_i,\beta$(>0)的$\Gamma$分布,则Z=$\sum_{i=1}^{n}X_i$服从参数为$\sum_{i=1}^{n}\alpha_i,\beta$的$\Gamma$分布,这一性质称为$\Gamma$函数的可加性
      $$f_{X_i}(x)=\begin{cases}
      \frac{1}{\beta^{\alpha_i}\Gamma(\alpha_i)}x^{\alpha_i -1}e^{\frac{-x}{\beta}} \quad x>0\
      0 \quad else
      \end{cases}$$
  • Z=XY分布和Z=$\frac{Y}{X}$分布
    $$\begin{aligned}
    f_{\frac{Y}{X}}(z)=\int_{-\infty}^{\infty}|x|f(x,xz)\mathrm{dx}
    \end{aligned}$$
    $$\begin{aligned}
    f_{XY}(z)=\int_{-\infty}^{\infty}\frac{1}{|x|}f(x,\frac{z}{x})\mathrm{dx}
    \end{aligned}$$
    当X,Y相互独立时,参照上面拆解为两个边缘密度的积函数即可

  • $M=\max(X,Y),N=\min(X,Y)$的分布

    • $X_i$为n个相互独立的变量
      $$\begin{equation}
      F_{max}(z)=\prod_{i=1}^{n}F_{X_i}(z)
      \end{equation}$$

    $$\begin{equation}
    F_{min}(z)=1-\prod_{i=1}^{n}[1-F_{x_i}(z)]
    \end{equation}$$

随机变量的数字特征

数学期望

  • 定义
    离散型随机变量X的分布律为
    $$\begin{equation}
    P(X=x_k)=p_k ,\quad k=1,2,\cdots
    \end{equation}$$
    若级数$\sum_{k=1}^{\infty}x_kp_k$绝对收敛,则称该级数的和为随机变量X的数学期望,记为E(X).即
    $$\begin{equation}
    E(X)=\sum_{k=1}^{\infty}x_kp_k
    \end{equation}$$
    连续型随机变量X的概率密度为f(x),若积分
    $$\begin{aligned}
    \int_{-\infty}^{\infty}xf(x)\mathrm{dx}
    \end{aligned}$$
    绝对收敛,则称该积分的值为随机变量X的数学期望,记为E(X),即
    $$\begin{equation}
    E(X)=\int_{-\infty}^{\infty}xf(x)\mathrm{dx}
    \end{equation}$$
  • 数学期望简称期望,又称为均值
  • 几种分布的数学期望表征式
    1. 均匀分布的数学期望为
      $$\begin{equation}
      E(x)=\int_{a}^{b}x\frac{1}{b-a}\mathrm{dx}=\frac{a+b}{2}
      \end{equation}$$
    2. 指数分布的数学期望为
      $$\begin{equation}
      \int_{0}^{\infty}x\frac{1}{\theta}e^{-(\frac{x}{\theta})}\mathrm{dx}=\theta
      \end{equation}$$
    3. 泊松分布的概率密度
      $$\begin{equation}
      E(X)=\sum_{k=1}^{\infty}k\frac{\lambda^{k}e^{-\lambda}}{k!}=\lambda
      \end{equation}$$
    4. 二项分布的数学期望为
      $$\begin{equation}
      E(X)=\sum_{k=0}^{\infty}kC_{n}^{k}p^k(1-p)^{n-k}=np
      \end{equation}$$
    5. 正态分布的数学期望为
      $$\begin{equation}
      E(X)=\int_{-\infty}^{\infty}x\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-u)^2}{2\sigma^2}}\mathrm{dx}=u
      \end{equation}$$
  • 定理
    设Y是随机变量X的函数:Y=g(X),g是连续函数
    1. 若X是离散型随机变量,它的分布律为$P(X=x_k)=p_k$,若$\sum_{k=1}^{\infty}g(x_k)p_k$绝对收敛,则有
      $$\begin{equation}
      E(Y)=\sum_{k=1}^{\infty}g(x_k)p_k
      \end{equation}$$
    2. 如果X是连续型随机变量,它的概率密度为f(x),若
      $$\begin{aligned}
      \int_{-\infty}^{\infty}g(x)f(x)\mathrm{dx}
      \end{aligned}$$
      绝对收敛,则有
      $$\begin{equation}
      E(Y)=\int_{-\infty}^{\infty}g(x)f(x)\mathrm{dx}
      \end{equation}$$
      定理表明在计算数学期望E(Y)时,我们不必算出Y的分布律或概率密度,只需要利用X的分布律或概率密度就可以了
      上述定理可以推广为多个随机变量的函数的情况
      设Z是随机变量$x_i,i=1,2,\cdots,k$的函数$Z=g(x_i),i=1,2,\cdots,k$,g是连续函数,那么Z是一个一维随机变量.若多维随机变量的概率密度为$f(x_i),i=1,2,\cdots,k$,则有(利用Einstein求和省略)
      $$\begin{equation}
      E(Z)=(\int_{-\infty}^{\infty})_ig(x_i)f(x_i)dx_i
      \end{equation}$$
      例如对于连续型二维随机变量(X,Y),假设满足绝对收敛
      $$\begin{equation}
      E(Z(X,Y))=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(x,y)f(x,y)\mathrm{dx}\mathrm{dy}
      \end{equation}$$
      例如对于离散型二维随机变量(X,Y),假设满足绝对收敛
      $$\begin{equation}
      E(Z)=\sum_{j=1}^{\infty}\sum_{i=1}^{\infty}g(x_i,y_i)p_{ij}
      \end{equation}$$
  • 数学期望的几个重要性质
    以下假设随机变量的数学期望存在
    1. 设C是常数,则E(C)=C
    2. 设X是一个随机变量,C是常数,则E(CX)=CE(X)
    3. 设X,Y是两个随机变量,则E(X,Y)=E(X)+E(Y),此结论可推广到任意有限个随机变量
    4. 设X,Y是相互独立的随机变量,则E(XY)=E(X)E(Y),此结论可推广到任意有限个相互独立的随机变量

方差

  • 定义
    设X是一个随机变量,若$E([X-E(X)]^2)$存在,则称$E([X-E(X)]^2)$为X的方差,记为D(X)或Var(X),即
    $$\begin{equation}
    D(X)=E([X-E(X)]^2)
    \end{equation}$$
    方差是衡量随机变量X取值分散程度的一个尺度
    在应用上我们还引入均方差的概念,也称为标准差,记为$\sigma(X)$,$\sigma(x)=\sqrt{D(X)}$
  • 方差实际上就是随机变量X的函数$g(X)=(X-E(X))^2$的数学期望
    对于离散型随机变量
    $$\begin{equation}
    D(X)=\sum_{k=1}^{\infty}[x_k-E(x)]^2p_k
    \end{equation}$$
    对于连续型随机变量
    $$\begin{equation}
    D(X)=\int_{-\infty}^{\infty}[X-E(X)]^2f(x)\mathrm{dx}
    \end{equation}$$
  • 随机变量X的方差可按照如下公式计算
    $$\begin{equation}
    D(X)=E(X^2)-[E(X)]^2
    \end{equation}$$
  • 几种常用的概率分布表
    分布 参数 分布律或概率密度 数学期望 方差
    (0-1)分布 0<p<1 P{X=k}=$p^k(1-p)^{1-k}$,k=0,1 p p(1-p)
    二项分布 0<p<1 P{X=k}=$C_n^kp^k(1-p)^{n-k},k=0,1,2,\cdots,n$ np np(1-p)
    帕斯卡分布 0<p<1 P{X=k}=$C_{k-1}^{r-1}p^r(1-p)^{k-r}.k=r,r+1,\cdots$ $\frac{r}{p}$ $\frac{r(1-p)}{p^2}$
    几何分布 0<p<1 P{X=k}=$(1-p)^{k-1}p,k=1,2,\cdots$ $\frac{1}{p}$ $\frac{1-p}{p^2}$
    超几何分布 N,M,n,$(M\le N),(n\le N)$ P{X=k}=$\frac{C_M^kC_{N-M}^{n-k}}{C_N^k}$ $\frac{nM}{N}$ $\frac{nM}{N}(1-\frac{M}{N})(\frac{N-n}{N-1})$
    泊松分布 $\lambda>0$ P{X-k}=$\frac{\lambda^ke^{-\lambda}}{k!},k=0,1,\cdots$ $\lambda$ $\lambda$
    均匀分布 a<b $$f(x)=\begin{cases}\frac{1}{b-a},a<x<b \\ 0 ,else\end{cases}$$ $\frac{a+b}{2}$ $\frac{(b-a)^2}{12}$
    正态分布 $\mu,\sigma>0$ $f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{\frac{(x-\mu)^2}{2\sigma^2}}$ $\mu$ $\sigma^2$
    $\Gamma$分布 $\alpha>0,\beta>0$ $$f(x)=\begin{cases} \frac{1}{\beta\Gamma(\alpha)}x^{\alpha-1}e^{-\frac{x}{\beta}},x>0 \\ 0,else \end{cases}$$ $\alpha\beta$ $\alpha\beta^2$
    指数分布 $\theta>0$ $$\begin{cases}\frac{1}{\theta}e^{-\frac{x}{\theta}},x>0 \\ 0,else \end{cases}$$ $\theta$ $\theta^2$
  • 方差的重要性质
    1. 设C是常数,则D(C)=0
    2. 设X是随机变量,C是常数,则$D(CX)=C^2D(X),\quad D(X+C)=D(X)$
    3. 设X,Y是两个随机变量,则有
      $$\begin{aligned}
      D(X\pm Y)=D(X)+D(Y)\pm 2E[(X-E(X))(Y-E(Y))]
      \end{aligned}$$
      特别地,当X,Y相互独立时
      $$\begin{aligned}
      D(X\pm Y)=D(X)+D(Y)
      \end{aligned}$$
      这一性质可以推广到任意有限多个互相独立的随机变量之和的情况
    4. D(X)=0的充要条件是X以概率1取常数E(X),即
      $$\begin{aligned}
      P(X=E(x))=1
      \end{aligned}$$
    5. 这一点不是方差的性质,但他很重要,故将此归入.
      n个相互独立的正态分布的线性组合仍然是正态分布,组合后得到的正态分布的期望与方差可完全由组成部分的期望和方差确定
      $$\begin{aligned}
      Z=C_1X_1+C_2X_2+\cdots+C_nX_n\quad 服从N(\sum_{i=1}^{n}C_iu_i,\sum_{i=1}^{n}C_i^2\sigma_i^2)
      \end{aligned}$$
  • 切比雪夫不等式
    设随机变量X具有数学期望$E(X)=\mu$,方差$D(X)=\sigma^2$,则对于任意整数$\varepsilon$,下面的不等式成立
    $$\begin{equation}
    P(|X-\mu|\ge \varepsilon)\le \frac{\sigma^2}{\varepsilon^2}
    \end{equation}$$
    这一不等式称为切比雪夫不等式,切比雪夫不等式也可以写成如下形式
    $$\begin{equation}
    P(|X-\mu|<\varepsilon)\ge 1-\frac{\sigma^2}{\varepsilon^2}
    \end{equation}$$

协方差与相关系数

  • 在前面讲述方差的时候,我们说对于随机变量X,Y有
    $$\begin{equation}
    D(X\pm Y)=D(X)+D(Y)\pm 2E[(X-E(X))(Y-E(Y))]
    \end{equation}$$
    如果随机变量X,Y是相互独立的,则有
    $$\begin{aligned}
    E[(X-E(X))(Y-E(Y))]=0
    \end{aligned}$$
    需要注意的是,若随机变量X,Y相互独立,则上式必定成立;但上式成立不足以说明随机变量X,Y相互独立.这意味这该条件对于变量的相互独立性,是充分不必要的

  • 定义
    量E{(X-E(X))(Y-E(Y))}称为随机变量X与Y的协方差,记为Cov(X,Y),即
    $$\begin{equation}
    Cov(X,Y)=E[(X-E(X))(Y-E()Y)]
    \end{equation}$$

    $$\begin{equation}
    \rho_{XY}=\frac{Cov(X,Y)}{\sqrt{D(X)}\sqrt{D(Y)}}
    \end{equation}$$
    称为随机变量X与Y的相关系数

    将协方差按照定义展开就可得到协方差计算公式
    $$\begin{equation}
    Cov(X,Y)=E(XY)-E(X)E(Y)
    \end{equation}$$

  • 协方差的性质

    1. $Cov(X,Y)=Cov(Y,X),\quad Cov(X,X)=D(X)$
    2. $Cov(aX,bY)=abCov(X,Y)$, a,b是常数
    3. $Cov(X_1+X_2,Y)=Cov(X_1,Y)+Cov(X_2,Y)$
  • 相关系数的性质
    考虑以X的线性函数a+bX来近似表示Y,我们以均方误差
    $$\begin{equation}
    e=E[(Y-(a+bX))^2]
    \end{equation}$$
    来衡量近似表达的好坏程度,e的值越小表示近似程度越好,最佳近似为
    $$\begin{equation}
    \min e=\min E[(Y-(a+bX))^2]=(1-\rho_{XY}^2)D(Y)
    \end{equation}$$
    由此我们可以得到下述定理

    1. $|\rho_{X,Y}\le 1|$
    2. $|\rho_{XY}=1|$的充要条件是存在常数a,b使得P{Y=a+bX}=1
  • 根据上面的讲述,不难看出均方误差e是相关系数的严格单调递减函数.当相关系数大时,即均方误差小,表示X,Y的联系紧密,特别地,当相关系数为1时,定理2表明,X与Y之间以概率1存在着线性关系.当相关系数为零时,称X与Y不相关

  • 当随机变量X,Y相互独立时,他们的协方差为零,因此相关系数为零,即X,Y不相关;但若X,Y不相关,X和Y却不一定相互独立.这是因为不相关是就随机变量X,Y的线性关系而言的,而相互独立是就一般关系而言的.但若X,Y服从二维正态分布时,X和Y不相关与X和Y相互独立是等价的

  • 相互独立的随机变量,其随机变量的函数也是相互独立的

  • 二维正态分布的协方差
    二维正态分布的协方差为
    $$\begin{equation}
    Cov(X,Y)=\rho\sigma_1\sigma_2
    \end{equation}$$

矩、协方差矩阵

  • 定义
    设X,Y是随机变量,若
    $$\begin{equation}
    E(X^k),\quad k=1,2,\cdots
    \end{equation}$$
    存在,称它为X的k阶原点矩,简称k阶矩

    $$\begin{equation}
    E([X-E(x)]^k),\quad k=2,3,\cdots
    \end{equation}$$
    存在,称它为X的k阶中心矩

    $$\begin{equation}
    E(X^kY^l),\quad k,l=1,2,\cdots
    \end{equation}$$
    存在,称它为X和Y的k+l阶混合矩

    $$\begin{equation}
    E[(X-E(X))^k(Y-E(Y))^l],\quad k,l=1,2,\cdots
    \end{equation}$$
    存在,称它为X和Y的k+l阶混合中心矩
    显然,X的数学期望是一阶原点矩,方差是2阶中心距,协方差是X和Y的二阶混合中心矩
  • 协方差矩阵
    二维随机变量$(X_1,X_2)$有四个二阶中心矩,(我们设他们都存在),分别记为
    $$\begin{aligned}
    c_{11}=E[(X_1-E(X_1))^2] \\
    c_{12}=E[(X_1-E(X_1))(X_2-E(X_2))]\\
    c_{21}=E[(X_2-E(X_2))(X_1-E(X_1))]\\
    c_{22}=E[(X_2-E(X_2))^2]
    \end{aligned}$$
    将他们排成矩阵形式
    $$\begin{pmatrix}
    c_{11} & c_{12} \\
    c_{21} & c_{22}
    \end{pmatrix}$$
    这个矩阵称为随机变量$(X_1,X_2)$的协方差矩阵
    设n维随机变量$(X_1,X_2,\cdots,X_n)$的二阶混合中心矩都存在
    $$\begin{aligned}
    c_{ij}=Cov(X_i,X_j)=E[(X_i-E(X_i))(X_j-E(X_j))],\quad i,j=1,2,\cdots,n
    \end{aligned}$$
    则称矩阵
    $$C=\begin{pmatrix}
    c_{11}&c_{12}&\cdots&c_{1n}\\
    c_{21}&c_{22}&\cdots&c_{2n}\\
    \vdots&\vdots& &\vdots \\
    c_{n1}&c_{n2}&\cdots&c_{nn}
    \end{pmatrix}$$
    为n维随机变量的协方差矩阵,由于$c_{ij}=c_{ji},i\neq j$,因此上述矩阵是一个对称矩阵

大数定律及中心极限定理

大数定律

  • 弱大数定律——辛钦大数定律
    设$X_{1},X_{2},\cdots$是相互独立且服从同一分布的随机变量序列,且具有数学期望$E(X_{k})=\mu$.做前n个变量的算术平均值,则对任意$\varepsilon_0>0$有
    $$\begin{equation}
    \lim_{n\to \infty}{|\frac{1}{n}\sum_{k=1}^{n}X_{k}-\mu|<\varepsilon_0 }=1
    \end{equation}$$
    即算术平均值无限接近数学期望
  • 伯努利大数定律
    设$f_{A}$是n次独立重复试验中事件A发生的次数,p是事件A在每一次试验中发生的概率,则对任意正数$\varepsilon_0$有
    $$\begin{equation}
    \lim_{n\to \infty}P{|\frac{f_{A}}{n}-p|<\varepsilon_0 }=1
    \end{equation}$$
    $$\begin{equation}
    \lim_{n\to \infty}P{|\frac{f_{A}}{n}-p|\ge\varepsilon_0 }=0
    \end{equation}$$
    伯努利大数定律的结果表明,对于任意$\varepsilon_0 >0$,只要独立重复试验的次数足够大,事件频率$\frac{f_{A}}{n}$与概率的偏差小于$\varepsilon_0$实际上几乎是必定要发生的.这就是我们所说的频率稳定性的真正含义.

中心极限定理

  • 波利亚独立同分布的中心极限定理
    设随机变量$X_{i}$相互独立,并且服从同一分布,且具有相同的数学期望和方差:$E(X_{k})=\mu$,$D(X_{k})=\sigma^2$,则随机变量之和$\sum_{i=1}^{n}X_{i}$的标准化变量
    $$\begin{equation}
    Y_{n}=\frac{\sum_{i=1}^{n}X_{i}-E(\sum_{i=1}^{n}X_{i})}{\sqrt{D(\sum_{i=1}^{n}X_{i})}}=\frac{\sum_{i=1}^{n}X_{i}-n\mu}{\sqrt{n}\sigma}
    \end{equation}$$
    的分布函数$F_{n}(x)$对于任意x满足
    $$\begin{aligned}
    \lim_{n\to \infty}F_{n}(x)&=\lim_{n\to \infty}P{\frac{\sum_{i=1}^{n}X_{i}-n\mu}{\sqrt{n}\sigma}\le x } \\
    &=\int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{\frac{-t^2}{2}}\mathrm{dt}=\Phi(x)
    \end{aligned}$$
  • 李雅普诺夫定理
    设随机变量$X_{i}$相互独立,他们具有数学期望和方差
    $$\begin{aligned}
    E(X_{k})=\mu_{k} ,\quad D(X_{k})=\sigma^2_{k} \quad k=1,2,\cdots
    \end{aligned}$$

    $$\begin{aligned}
    B_{n}^{2}=\sum_{k=1}^{n}\sigma^2_{k}
    \end{aligned}$$
    若存在正数$\delta$,使得当$n\rightarrow\infty$时,
    $$\begin{aligned}
    \frac{1}{B_{n}^{\delta+2}}\sum_{k=1}^{n}E{|X_{k}-\mu_{k}|^{2+\delta}}\rightarrow 0
    \end{aligned}$$
    则随机变量之和的标准化变量
    $$\begin{equation}
    Z_{n}=\frac{\sum_{i=1}^{n}X_{i}-E(\sum_{i=1}^{n}X_{i})}{\sqrt{D(\sum_{i=1}^{n}X_{i})}}=\frac{\sum_{i=1}^{n}X_{i}-\sum_{i=1}^{n}\mu_{i}}{B_{n}}
    \end{equation}$$
    的分布函数$F_{n}(x)$对于任意x,满足
    $$\begin{aligned}
    \lim_{n\to \infty}F_{n}(x)&=\lim_{n\to \infty}P{\frac{\sum_{i=1}^{n}X_{i}-\sum_{i=1}^{n}\mu_{i}}{B_{n}}\le x} \\
    &= \int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{\frac{-t^2}{2}}\mathrm{dt}=\Phi(x)
    \end{aligned}$$
  • 棣莫弗-拉普拉斯定理
    设随机变量$\eta_{n}$服从参数为n,p的二项分布,则对于任意x,有
    $$\begin{aligned}
    \lim_{n\to \infty}P{\frac{\eta_{n}-np}{\sqrt{np(1-p)}}\le x}=\int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}\mathrm{dt}=\phi(x)
    \end{aligned}$$

样本及抽样分布

随机样本

  • 概念组
    试验全部可能的观察值称为总体
    每一个可能的观察值称为个体
    总体所包含个体的数量称为总体的容量
    容量为有限的称为有限总体
    容量为无限的称为无限总体
  • 定义
    设X是具有分布函数F的随机变量,若$X_{1},X_{2},\cdots,X_{n}$是具有同一分布函数F的、相互独立的随机变量,则称$X_{1},X_{2},\cdots,X_{n}$为从分布函数F得到的容量为n的简单随机样本,简称样本,他们的观察值$x_{1},x_{2},\cdots,x_{n}$称为样本值.

抽样分布

  • 定义
    设$X_{1},X_{2},\cdots,X_{n}$是来自总体X的一个样本,g($X_{1},X_{2},\cdots,X_{n}$)是$X_{1},X_{2},\cdots,X_{n}$的函数.若g中不含参数,则称g($X_{1},X_{2},\cdots,X_{n}$)是一统计量

  • 概念组

    • 样本平均值
      $$\begin{equation}
      \bar{X}=\frac{1}{n}\sum_{i=1}^{n}X_{i}
      \end{equation}$$
    • 样本方差
      $$\begin{equation}
      S^2=\frac{1}{n-1}\sum_{i=1}^{n}(X_{i}-\bar{X})^2=\frac{1}{n-1}(\sum_{i=1}^{n}X_{I}^2-n\bar{X}^2)
      \end{equation}$$
    • 样本标准差
      $$\begin{equation}
      S=\sqrt{S^2}
      \end{equation}$$
    • 样本k阶原点矩
      $$\begin{equation}
      A_{k}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{k}
      \end{equation}$$
    • 样本k阶中心矩
      $$\begin{equation}
      B_{k}=\frac{1}{n}\sum_{i=1}^{n}(X_{i}-\bar{X})^{k}
      \end{equation}$$
      将上面各式替换为相应的小写,就得到了对应的观察值
      他们分别称为样本均值、样本方差、样本标准差、样本k阶矩、样本k阶中心矩
    • 一些结论
      2阶样本中心矩与二阶样本原点矩具有以下关系
      $$\begin{equation}
      B_{2}=A_{2}-\bar{X}^2
      \end{equation}$$
      样本方差与二阶中心矩的关系
      $$\begin{equation}
      B_{2}=\frac{n-1}{n}S^2
      \end{equation}$$
      若随机变量$X_{i}$具有期望$E(X_{i})=\mu$,$D(X_{i})=\sigma^2$,则样本方差的期望
      $$\begin{equation}
      E(s^2)=\sigma^2
      \end{equation}$$
  • 若总体X的k阶矩$E(X^k)=\mu_{k}$存在,则当$n\rightarrow\infty$时,$A_{k}\rightarrow \mu_{k}$.这是因为若随机变量$X_{i}$独立且与X同分布,则随机变量的函数$f(X_{i})$也相互独立且与$f(X)$同分布.

  • 经验分布函数
    我们可以做出与总体分布函数F(x)相应的统计量——经验分布函数.它的做法如下:设$X_{1},X_{2}\cdots,X_{n}$是总体F的一个样本,用$S(x),-\infty<x<\infty$表示$X_{1},X_{2}\cdots,X_{n}$中不大于x的随机变量的个数,定义经验分布函数$F_{n}(x)$为
    $$\begin{equation}
    F_{n}(x)=\frac{1}{n}S(x),\quad -\infty<x<\infty
    \end{equation}$$
    对于经验分布函数,格里汶科证明了下述结论:对于任一实数x,当$n\rightarrow\infty$时,$F_{n}(x)$以概率1收敛于分布函数F(x),即
    $$\begin{equation}
    P(\lim_{n\to \infty} \sup{|F_{n}(x)-F(x)|=0})=1 \quad -\infty<x<\infty
    \end{equation}$$

  • 统计量的分布称为抽样分布
    下面介绍几个来自正态总体的常用的统计量的分布

    • (一)$\chi^2$分布
      俗称卡方分布.
      设$X_{1},X_{2},\cdots,X_{n}$是来自总体$N(0,1)$的样本,则称统计量
      $$\begin{equation}
      \chi^2=X_{1}^2+X_{2}^2+\cdots+X_{n}^2
      \end{equation}$$
      服从自由度为n的$\chi^2$分布,记为$\chi^2\sim\chi^2(n)$
      此处自由度是指上式右侧所包含的*8独立变量**的个数
      $\chi^2$分布的概率密度为
      $$f(y)=\begin{aligned}
      \frac{1}{2^{\frac{n}{2}}\Gamma(\frac{n}{2})y^{\frac{n}{2}-1}e^{-\frac{y}{2}}} \quad y>0 \\
      0 \quad else
      \end{aligned}$$
      由此可见,$\chi^2$分布实际上是参数$\alpha=\frac{n}{2}$,$\beta=2$的$\Gamma$分布,即
      $$\begin{equation}
      \chi^2=\sum_{i=1}^{n}X_{i}^2\sim\Gamma(\frac{n}{2},2)
      \end{equation}$$
      $\Gamma$分布的期望和方差分别为
      $$\begin{equation}
      E(\Gamma)=\alpha\beta \quad D(\Gamma)\alpha\beta^3
      \end{equation}$$
      $\Gamma$分布具有可加性,若随机变量$X_{i}$相互独立且分别服从参数为$\alpha_{i}$,$\beta$的$\Gamma$分布,则$\sum_{i=1}^{n}X_{i}$服从参数为$\sum_{i=1}^{n}\alpha_{i}$,$\beta$的$\Gamma$分布.这一性质记为$\Gamma$分布的可加性.
      由于卡方分布也是$\Gamma$分布,因此卡方分布也具有可加性.
      卡方分布的性质有如下几点:

      1. **$\chi^2$分布的可加性** 设$\chi_{1}^2\sim\chi^2(n_{1})$,$\chi_{2}^2\sim\chi^2(n_{2})$,并且$\chi_{1}^2$,$\chi_{2}^2$相互独立,则有 $$\begin{equation} \chi_{1}^2+\chi_{2}^{2}\sim\chi(n_{1}+n_{2}) \end{equation}$$ 此性质可以推广到N个独立的随机变量 2. **$\chi^2$分布的数学期望和方差** 若$\chi^2\sim\chi^2(n)$,则有 $$\begin{equation} E(\chi^2)=n \quad D(\chi^2)2n \end{equation}$$ 3. 若$X_{1},X_{2},\cdots,X_{n}$相互独立且都服从正态分布$N(\mu,\sigma^2)$,则 $$\begin{equation} \chi^2=\frac{1}{\sigma^2}\sum_{i=1}^{n}(X_{i}-\mu)^2\sim\chi^2(n) \end{equation}$$ 上面像不像一个标准化正态分布的过程呢! 4. $\chi^2\sim\chi^2(n)$,当n充分大时,$\frac{\chi^2-n}{\sqrt{2n}}$的分布近似服从标准正态分布N(0,1). 上式可由中心极限定理导出.事实上当存在近似这类字眼的时候就要联想中心极限定理啦! 5. **$\chi^2$分布的上分为点** 对于给定的正数$\alpha$,$0<\alpha<1$,满足条件 $$\begin{equation} p(\chi^2>\chi^2_{\alpha}(n))=\int_{\chi^2_{\alpha}(n)}^{\infty}f(y)\mathrm{dy}=\alpha \end{equation}$$ 的点$\chi^2_{\alpha}(n)$就是$\chi^2(n)$分布的上$\alpha$分位点. 费希尔证明,当n充分大时,近似地有 $$\begin{equation} \chi^2_{\alpha}(n)=\frac{1}{2}(z_{\alpha}+\sqrt{2n-1})^2 \end{equation}$$ 其中$z_{\alpha}$是标注正态分布的上$\alpha$分位点.

      对不起大家,本来分位点应该在很早 之前讲正态分布时就引入了,但孩子没看到,哭哭...
      所以为了弥补,孩子决定在这里好好讲一讲

      分位数与分位点
      定义:设连续型随机变量X的分布函数为F(x),概率密度函数为f(x)
      1. 对于任意正数$\alpha<1$,称满足条件 $$\begin{aligned} p(x\le x_{\underline{\alpha}})="F(x_{\underline{\alpha}})=\int_{-\infty}^{x_{\underline{\alpha}}}f(x)\mathrm{dx}=\alpha" \end{aligned}$$
      (请自动忽略",我也不知道网页如何渲染出来的)
      的数$x_{\underline{\alpha}}$称为此分布的$\alpha$分位数或下$\alpha$分位点
      2. 对于任意正数$\alpha<1$,称满足条件
      $$\begin{aligned} P(X>x_{\alpha})=1-F(x_{\alpha})=\int_{x_{\alpha}}^{\infty}f(x)\mathrm{dx}=\alpha \end{aligned}$$
      的数$x_{\alpha}$为此分布的上$\alpha$分位数
      特别的,当$\alpha=0.5$时,$x_{\alpha}$称为此分布的中位数
      3. 下$\alpha$分位数和上$\alpha$分位数具有以下关系
      $$\begin{equation} x_{\alpha}=x_{\underline{1-\alpha}},\quad x_{\underline{\alpha}}=x_{1-\alpha} \end{equation}$$
      对于正态分布,根据图形的对称性还有下面的结论
      $$\begin{equation} x_{1-\alpha}=-x_{\alpha} \end{equation}$$

  • (二)$t$分布
    设$X\sim N(0,1)$,$Y\sim \chi^2(n)$,且X,Y相互独立,则称随机变量
    $$\begin{equation}
    t=\frac{X}{\sqrt{\frac{Y}{n}}}
    \end{equation}$$
    服从自由度为n的t分布,记为$t\sim t(n)$
    t分布又称学生氏分布.t(n)分布的概率密度函数为
    $$h(t)=\begin{aligned}
    \frac{\Gamma(\frac{n+1}{2})}{\sqrt{n\pi}\Gamma(\frac{n}{2})}(1+\frac{t^2}{n})^{-\frac{n+1}{2}}
    \end{aligned}$$
    t分布的图形是关于y轴对称的偶函数,当n足够大时t分布近似于标准正态分布N(0,1)
    t分布有以下性质
    1. t分布的期望和方差
      $$\begin{aligned}
      E(t)=0 \quad D(t)=\frac{n}{n-2}
      \end{aligned}$$
    2. t分布的上分位点
      定义不再写啦,类比于上面的介绍叭
      根据图形的对称性,他的分位点有类似于正态分布的性质,即
      $$\begin{aligned}
      t_{1-\alpha}(n)=-t_{\alpha}
      \end{aligned}$$
      特别地,当n>45时,一般就用正态分布的上分位点近似,即
      $$\begin{aligned}
      t_{\alpha}(n)=z_{\alpha}
      \end{aligned}$$
  • (三)$F$分布
    设$U\sim\chi^2(n_{1})$,$V\sim\chi^2(n_{2})$,且U,V相互独立,则称随机变量
    $$\begin{equation}
    F=\frac{\frac{U}{n_{1}}}{\frac{V}{n_{2}}}
    \end{equation}$$
    服从自由度为$(n_{1},n_{2})$的F分布,记为$F\sim F(n_{1},n_{2})$
    F分布的概率密度函数为
    $$\psi(y)=\begin{cases}
    \frac{\Gamma(\frac{n_{1}+n_{2}}{2})(\frac{n_{1}}{n_{2}})^{\frac{n_{1}}{2}}y^{\frac{n_{1}}{2}-1}}{\Gamma(\frac{n_{1}}{2})\Gamma(\frac{n_{2}}{2})[1+(\frac{n_{1}y}{n_{2}})]^{\frac{n_{1}+n_{2}}{2}}},\quad y>0 \\
    0,\quad else
    \end{cases}$$
    F分布具有以下性质 1. 根据定义,若$F\sim F(n_{1},n_{2})$,则 $$\begin{equation} \frac{1}{F}\sim F(n_{2},n_{1}) \end{equation}$$ 2. F分布的期望 $$\begin{equation} E(F)=\frac{n_{2}}{n_{2}-2} \end{equation}$$ 为什么像极了t分布的方差呢,因为t分布与F分布有关系! 3. t分布与F分布的关系 若$X\sim t(n)$,则$X^2\sim F(1,n)$,即$t^2(n)=F(1,n)$ 4. F分布的上分位点 定义类似,不再赘述啦 不过F分布的上$\alpha$分位点有如下重要的性质 $$\begin{equation} F_{1-\alpha}(n_{1},n_{2})=\frac{1}{F_{\alpha}(n_{2},n_{1})} \end{equation}$$
  • (四)正态总体的样本均值与样本方差的分布
    设总体X(不论其服从什么分布,只要其存在均值和方差)的均值为$\mu$,方差为$\sigma^2$,$X_{1},X_{2},\cdots,X_{n}$是来自X的一个样本,$\bar{X}$,$S^2$分别是样本的均值和方差,则有
    $$\begin{equation}
    E(\bar{X})=\mu \quad D(\bar{X})=\frac{\sigma^2}{n}
    \end{equation}$$
    $$\begin{equation}
    E(S^2)=\sigma^2
    \end{equation}$$
    下面引出一些定理
    1. 定理一
      设$X_{1},X_{2},\cdots,X_{n}$是来自正态总体$N(\mu,\sigma^2)$的样本,$\bar{X}$是样本的平均值,则有
      $$\begin{equation}
      \bar{X}\sim N(\mu,\frac{\sigma^2}{n})
      \end{equation}$$
    2. 定理二
      设$X_{1},X_{2},\cdots,X_{n}$是来自总体$N(\mu,\sigma^2)$的样本,$\bar{X}$,$S^2$是样本的样本均值和样本方差,则有
      1. $\frac{(n-1)S^2}{\sigma^2}\sim \chi^2(n-1)$
      2. $\bar{X}$与$S^2$相互独立
        推广:对于m个同方差的正态总体,设$\bar{X_{i}}$,$S^2$分别是总体$N(\mu_{i},\sigma^2)$的样本均值和样本方差,且各个样本相互独立,则$\bar{X_{1}},\bar{X_{2}},\cdots,\bar{X_{m}},S_{1}^2,S_{2}^2,\cdots,S_{m}^2$相互独立.
    3. 定理三
      设$X_{1}$,$X_{2},\cdots,X_{n}$是来自总体$N(\mu,\sigma^2)$的样本,$\bar{X}$,$S^2$分别是样本均值和样本方差,则有
      $$\begin{equation}
      \frac{\bar{X}-\mu}{\frac{S}{\sqrt{n}}}\sim t(n-1)
      \end{equation}$$
    4. 定理四
      设$X_{1},X_{2},\cdots,X_{n1}$与$Y_{1},Y_{2}\cdots,Y_{n2}$是分别来自总体$N(\mu_{1},\sigma_{1}^2)$和$N(\mu_{2},\sigma_{2}^2)$的样本,且这两个样本相互独立,即指随机向量$(X_{1},X_{2},\cdots),(Y_{1},Y_{2},\cdots)$相互独立,$\bar{X},\bar{Y},S_{1}^2,S_{2}^2$分别是样本X,Y的样本均值和X,Y的样本方差,则有
      1. $\frac{\frac{S_{1}^2}{S_{2}^2}}{\frac{\sigma_{1}^2}{\sigma_{2}^2}}\sim F(n_{1}-1,n_{2}-1)$
      2. 当$\sigma_{1}^2=\sigma_{2}^2=\sigma^2$时
        $$\begin{equation}
        \frac{(\bar{X}-\bar{Y})-(\mu_{1}-\mu_{2})}{S_{w}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}\sim t(n_{1}+n_{2}-2)
        \end{equation}$$
        其中
        $$\begin{equation}
        S^2_{w}=\frac{(n_{1}-1)S_{1}^2+(n_{2}-1)S_{2}^2}{n_{1}+n_{2}-2}
        \end{equation}$$

参数估计

点估计

  • 设总体X的分布函数$F(x,\theta)$的形式为已知,$\theta$为待估参数,点估计问题就是要构造一个适当的统计量$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$,用它的观察值$\hat{\theta}(x_{1},x_{2},\cdots,x_{n})$作为未知参数$\theta$的近似值,我们称$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$为$\theta$的估计量,称$\hat{\theta}(x_{1},x_{2},\cdots,x_{n})$为$\theta$的估计值.
  • 下面讲述两种常用的构造估计量的方法
    • 矩估计法
      矩估计就是用样本矩代替总体矩.
      设X为连续性随机变量,概率密度为$f(x,\theta_{1},\theta_{2},\cdots,\theta_{k})$,或X为离散型随机变量,其分布律为P{$X=x$}=$p(x,\theta_{1},\theta_{2},\cdots,\theta_{k})$.假设总体X的前k阶矩阵存在
      $$\begin{equation}
      \mu_{l}=E(X^{l})=\int_{-\infty}^{\infty}x^{l}f(x,\theta_{1},\theta_{2},\cdots,\theta_{k})\mathrm{dx}
      \end{equation}$$$$\begin{equation}
      \mu_{l}=E(X^{l})=\sum x^{l}p(x,\theta_{1},\theta_{2},\cdots,\theta_{k})\quad l=1,2,\cdots,k
      \end{equation}$$
      基于样本矩
      $$\begin{equation}
      A_{l}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{l}
      \end{equation}$$
      依概率收敛于相应的总体矩,样本矩的连续函数依概率收敛于相应的总体矩的连续函数,我们用样本矩作为相应的总体矩的估计量,以样本矩的连续函数作为相应的总体矩的连续函数的估计量.这种方法称为矩估计法
      矩估计法的步骤大致如下:
      1. 列出待估计参数的样本矩$u_{i}$的方程组
      2. 解出待估计参数的形式
      3. 用$A_{i}$代替$u_{i}$,以$\hat{\theta}{i}=\theta{i}(A_{1},A_{2},\cdots,A_{k})$作为$\theta_{i}$的估计量,这种估计量称为矩估计量,矩估计量的观测值称为矩估计值
    • 最大似然估计法
      设总体X是离散型,其分布律为已知形式,$X_{1},X_{2},\cdots,X_{n}$是来自X的样本,则他们的联合分布律为
      $$\begin{equation}
      \prod_{i=1}^{n}p(x_{i},\theta)
      \end{equation}$$
      $x_{1},x_{2},\cdots,x_{n}$是其对应的观察值.事件{$X_{1}=x_{1},X_{2}=x_{2},\cdots,X_{n}=x_{n}$}的概率为
      $$\begin{equation}
      L(\theta)=L(x_{1},x_{2},\cdots,x_{n},\theta)=\prod_{i=1}^{n}p(x_{i},\theta)
      \end{equation}$$
      $L(\theta)$称为样本的似然函数,值得一提的是这里的观察值都是已知的常数
      我们定义使得L到达最大值的$\hat{\theta}$作为参数$\theta$的最大似然估计量,即
      $$\begin{equation}
      L(x_{1},x_{2},\cdots,x_{n},\hat{\theta})=\max L(x_{1},x_{2},\cdots,x_{n},\theta)
      \end{equation}$$
      这样的$\hat{\theta}$与样本值$(x_{1},x_{2},\cdots,x_{n})$有关,常记为$\hat{\theta}(x_{1},x_{2},\cdots,x_{n})$,称为参数$\theta$的最大似然估计值.相应的统计量$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$称为参数$\theta$的最大似然估计量
      若总体X是连续型,其概率密度为已知形式,类似地有联合概率密度为
      $$\begin{equation}
      \prod_{i=1}^{n}f(x_{i},\theta)
      \end{equation}$$
      样本的似然函数为
      $$\begin{equation}
      L(\theta)=L(x_{1},x_{2},\cdots,x_{n},\theta)=\prod_{i=1}^{n}f(x_{i},\theta)
      \end{equation}$$
      使得似然函数取得最大的参数$\hat{\theta}(x_{1},x_{2},\cdots,x_{n})$称为$\theta$的最大似然估计值,称$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$为$\theta$的最大似然估计量
      利用数学知识可以知道求连续性似然函数的极值只取对未知参数求一阶(偏)导为零即可,即
      $$\begin{equation}
      \frac{\mathrm{d}}{\mathrm{d\theta}}L(\theta)=0
      \end{equation}$$
      但为方便计算,我们往往会求取其对数似然方程
      $$\begin{equation}
      \frac{\mathrm{d}}{\mathrm{d\theta}}\ln{L(\theta)}=0
      \end{equation}$$
      当未知参数$\theta$不止一个时,只需要分别对未知参数$\theta_{i}$求偏导组成方程组解即可
      应当指出,最大似然估计具有下述性质:设$\theta$的函数$u=u(\theta)$具有单值反函数$\theta=\theta(u)$,同时假设$\hat{\theta}$是X的概率分布中参数$\theta$的最大似然估计,则$\hat{u}=u(\hat{\theta})$是$u(\theta)$的最大似然估计,这一性质称为最大似然估计的不变性

估计量的评选标准

  • 无偏性
    若估计量$\hat{\theta}=\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$的数学期望$E(\hat{\theta})$存在,且对于任意可取的$\theta$有
    $$\begin{equation}
    E(\hat{\theta})=\theta
    \end{equation}$$
    则称$\hat{\theta}$是$\theta$的无偏估计量
    在科学技术中,称$E(\hat{\theta})-\theta$为以$\hat{\theta}$作为$\theta$的估计的系统误差,无偏估计的意义就是无系统误差
    $\bar{X}$就是总体均值的良好估计!
  • 有效性
    设$\hat{\theta_{1}}(X_{1},X_{2},\cdots,X_{n})$与$\hat{\theta_{2}}(X_{1},X_{2},\cdots,X_{n})$都是$\theta$的无偏估计量,对于任意可取的$\theta$有
    $$\begin{equation}
    D(\hat{\theta_{1}})\le D(\hat{\theta_{2}})
    \end{equation}$$
    则称$\hat{\theta_{1}}$较$\hat{\theta_{2}}$有效
  • 相合性
    设$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$为参数$\theta$的估计量,若对任意可取的$\theta$,当$n\rightarrow \infty$时,$\hat{\theta}(X_{1},X_{2},\cdots,X_{n})$依概率收敛于$\theta$,则称$\hat{\theta}$为$\theta$的相合估计量
    即若对于任意可取的$\theta$都满足:对于任意$\varepsilon > 0$,有
    $$\begin{equation}
    \lim_{n\to \infty}P(|\hat{\theta}-\theta|<\varepsilon)=1
    \end{equation}$$
    则称$\hat{\theta}$是$\theta$的相合估计量
    相合性是对一个估计量的基本要求,若估计量不具有相合性,那这样的估计量是不可取的.不满足相合性的估计量无需讨论其无偏性和有效性,因为这样的估计量是不可取的.

区间估计

  • 置信区间
    设总体X的分布函数$F(x,\theta)$含有一个未知参数$\theta$,$\theta\in\Theta$,$\Theta$是$\theta$的可取值范围.对于给定的定值$\alpha$,若由来自X的样本$X_{1},X_{2},\cdots,X_{n}$确定的两个统计量$\theta_{1}$和$\theta_{2}$,对于任意可取的$\theta$,满足
    $$\begin{equation}
    P(\theta_{2}(X_{1},X_{2},\cdots,X_{n})<\theta<\theta_{2}(X_{1},X_{2},\cdots,X_{n}))\ge 1-\alpha
    \end{equation}$$
    则称随机区间$(\theta_{1},\theta_{2})$是$\theta$的置信水平为$1-\alpha$的置信区间,$\theta_{1}$和$\theta_{2}$分别称为置信水平为$1-\alpha$的双侧置信区间的置信下限置信上限,$1-\alpha$称为置信水平

各种区间估计集合

置信水平为$1-\alpha$的正态总体均值、方差的置信区间与单侧置信限

一个正态总体的情况

待估参数 其他参数 估计量 置信区间 单侧置信限
$\mu$ $\sigma^2$已知 $Z=\frac{\bar{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\sim N(0,1)$ $(\bar{X}\pm\frac{\sigma}{\sqrt{n}}z_{\frac{\alpha}{2}})$ $\bar{\mu}=\bar{X}+\frac{\sigma}{\sqrt{n}}z_{\alpha}\quad \underline{\mu}=\bar{X}-\frac{\sigma}{\sqrt{n}}$
$\mu$ $\sigma^2$未知 $t=\frac{\bar{X}-\mu}{\frac{S}{\sqrt{n}}}\sim t(n-1)$ $(\bar{X}\pm\frac{S}{\sqrt{n}}t_{\frac{\alpha}{2}}(n-1))$ $\bar{\mu}=\bar{X}+\frac{S}{\sqrt{n}}t_{\alpha}(n-1) \quad \underline{\mu}=\bar{X}-\frac{S}{\sqrt{n}}t_{\alpha}(n-1)$
$\sigma^2$ $\mu$未知 $\chi^2=\frac{(n-1)S^2}{\sigma^2}\sim\chi^2(n-1)$ $(\frac{(n-1)S^2}{\chi^2_{\frac{\alpha}{2}}(n-1)},\frac{(n-1)S^2}{\chi^2_{1-\frac{\alpha}{2}}(n-1)})$ $\bar{\sigma^2}=\frac{(n-1)S^2}{\chi^2_{1-\alpha}(n-1)}\quad \underline{\sigma^2}=\frac{(n-1)S^2}{\chi^2_{\alpha}(n-1)}$

两个正态总体的情况

待估参数 其他参数 估计量 置信区间 单侧置信限
$\mu_{1}-\mu_{2}$ $\sigma_{1}^2,\sigma_{2}^2已知$ $Z=\frac{\bar{X}-\bar{Y}-(\mu_{1}-\mu_{2})}{\sqrt{\frac{\sigma_{1}^2}{n_{1}}+\frac{\sigma_{2}^2}{n_{2}}}}\sim N(0,1)$ $(\bar{X}-\bar{Y}\pm z_{\frac{\alpha}{2}}\sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^2}{n_{2}}})$ $\overline{\mu_{1}-\mu_{2}}=\bar{X}-\bar{Y}+z_{\alpha}\sqrt{\frac{\sigma_{1}^2}{n_{1}}+\frac{\sigma_{2}^2}{n_{1}}}\\underline{\mu_{1}-\mu_{2}}=\bar{X}-\bar{Y}+z_{\alpha}\sqrt{\frac{\sigma_{1}^2}{n_{1}}+\frac{\sigma_{2}^2}{n_{1}}}$
$\mu_{1}-\mu_{2}$ $\sigma_{1}^2=\sigma_{2}^2=\sigma^2未知$ $t=\frac{(\bar{X}-\bar{Y})-(\mu_{1}-\mu_{2})}{S_{w}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}\sim t(n_{1}+n_{2}-2)$ $(\bar{X}-\bar{Y}\pm t_{\frac{\alpha}{2}}(n_{1}+n_{2}-2)S_{w}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}})$ $\overline{\mu_{1}-\mu_{2}}=\bar{X}-\bar{Y}+t_{\alpha}(n_{1}+n_{2}-2)S_{2}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{1}}}\\underline{\mu_{1}-\mu_{2}}=\bar{X}-\bar{Y}+t_{\alpha}(n_{1}+n_{2}-2)S_{w}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{1}}}$
$\frac{\sigma_{1}^2}{\sigma_{2}^2}$ $\mu_{1},\mu_{2}未知$ $F=\frac{S_{1}^2\sigma_{2}^2}{S_{2}^2\sigma_{1}^2}\sim F(n_{1}-1,n_{2}-1)$ $(\frac{S_{1}^2}{S_{2}^2}\frac{1}{F_{\frac{\alpha}{2}}(n_{1}-1,n_{2}-1)},\frac{S_{1}^2}{S_{2}^2}\frac{1}{F_{1-\frac{\alpha}{2}}(n_{1}-2,n_{2}-1)})$ $\bar{\frac{\sigma_{1}^2}{\sigma_{2}^2}}=\frac{S_{1}^2}{S_{2}^2}\frac{1}{F_{1-\alpha}(n_{1}-1,n_{2}-1)}\\underline{\frac{\sigma_{1}^2}{\sigma_{2}^2}}=\frac{S_{1}^2}{S_{2}^2}\frac{1}{F_{\alpha}(n_{1}-1,n_{2}-1)}$

您阅读这篇文章共花了:
Invitation
USTC-茶糜花开
FeynmanDirac
created:12/03/2022
Welcome to USTC-茶糜花开

This is an identification card as an honored membership of FeynmanDirac

Happy to see you follow FeynmanDirac, enjoy science together

© 版权声明
验证码启动中...