$$\textbf{例5:}$瓶$C_1$中有$3$个红球,$7$个白球,瓶$C_2$中有$8$个红球,$2$个白球,这些球大小与形状都是一样的,现在假设选择瓶$C_1$的概率为$P(C_1)=\frac{2}{6}$,而选$C_2$的概率为$P(C_2)=\frac{4}{6}$。选完瓶子后我们随机抽一个球,抽到红球的事件用$C$表示,显然条件概率$P(C|C_1)=\frac{3}{10},P(C|C_2)=\frac{8}{10}$,那么在抽到红球的条件下,是瓶$C_1$的条件概率为 \begin{align*} P(C_1|C) &=\frac{P(C_1)P(C|C_1)}{P(C_1)P(C|C_1)+P(C_2)P(C|C_2)}\ &=\frac{(\frac{2}{6})(\frac{3}{10})}{(\frac{2}{6})(\frac{3}{10})+(\frac{4}{6})(\frac{8}{10})}=\frac{3}{19} \end{align*}
同样得我们可得 P(C2|C)=1619 。
在例 5 中,概率P(C1)=26,P(C2)=46称为 C1,C2 的先验概率,因为他们是已知的。观察到是红球以后,条件概率 P(C1|C)=319,P(C2|C)=1619 称为后验概率。因为 C2 中红球的比例比 C1 中大,所以直觉上我们认为 P(C2|C) 应该比 P(C1|C) 大,并且 P(C1|C) 应该比 P(C1) 要小。贝叶斯定理提供了精确算出他们概率是多少的方法。
例6: 三个工厂 C1,C2,C3 分别占公司百分之 10,50,40 的产出,虽然 C1 产出规模小,但是其产品质量很高,只有百分之 1 的残品率,其他两个工厂C2,C3的残品率分别是百分之 3 和4,所有产品最终会送到同一个仓库,现在我们随机抽一个产品,其是残品的事件记为 C ,接下来我们来计算该产品来自C1的条件概率。我们很自然会得到 P(C1)=0.1,P(C2)=0.5,P(C3)=0.4 ,残品的条件概率为 P(C|C1)=0.01,P(C|C2)=0.03,P(C|C3)=0.04 ,那么给定一个次品, C1 的后验概率是
P(C1|C)=P(C1∩C)P(C)=(0.1)(0.01)(0.1)(0.01)+(0.5)(0.03)+(0.4)(0.04)等于 132 ;这比先验概率 P(C1)=116 要小。这是因为产品为残品的事实降低了其来自高质量 C1 的机会。
例7: 假设我们想调查某个人群中受虐儿童的比例,我们感兴趣的事件是:受虐 (A) 与它的补,即不受虐 (N=Ac) 。为了我们假设 P(A)=0.01 ,那么 P(N)=0.99 ,当然是否受虐是基于医生的鉴定,因为医生不一定就能做出完美的结论,他们时候会把受虐的儿童 (A) 判定成未受虐的 (ND) ,另一方面,也可能把为未受虐的 (N) 分为受虐的 AD 。假设误分的错误率为 P(ND|A)=0.04,P(AD|N)=0.05 ;那么正确分类的概率是 P(ND|A)=0.96,P(AD|N)=0.95 ,现在我们计算随机选一个孩子,他被医生分成受虐儿童的概率。因为会有两种情况 A∩AD,N∩AD ,所以我们有 P(AD)=P(AD|A)P(A)+P(AD|N)P(N)=(0.96)(0.01)+(0.05)(0.99)=0.0591 ,它比受虐儿童的概率0.01要高。进一步,当一个儿童被医生判定为受虐待,而实际就是受虐待的概率为
P(A|AD)=P(A∩AD)P(AD)=(0.96)(0.01)0.0591=0.1624同样的我们可以计算一个儿童被医生判定为受虐待而实际没有受虐嗲的概率为 0.8376 。这些概率相对真实概率比较不靠谱,原因在于医生的误差率比受虐儿童的 0.01 还高。
有时事件 C1 的发生不会影响 C2 的概率,这里 P(C1)>0 ,即
P(C2|C1)=P(C2)这时候我们称事件 C1,C2 是独立的,而且乘法法则变成
P(C1∩C2)=P(C1)P(C2|C1)=P(C1)P(C2)反过来当 P(C2)>0 时有
P(C1|C2)=P(C1∩C2)P(C2)=P(C1)P(C2)P(C2)=P(C1)注意,如果 P(C1)>0,P(C2)>0 ,那么根据上面的讨论,独立等价于
P(C1∩C2)=P(C1)P(C2)(1)那么 P(C1)=0 或者 P(C2)=0 会怎样呢?这时候,等式 1 的右边是0,左边也是 0 ,因为C1∩C2⊂C1,C1∩C2⊂C2。因此我们取等式1作为独立的正式定义;即
定义1: 令 C1,C2 是两个事件,如果等式1成立,我们就说 C1,C2 是独立的。
假设 C1,C2 是独立事件,那么下面三个事件是独立的: C1,Cc2 与 Cc1,C2 与 Cc1,Cc2 。
注1: 独立的事件有时候称为统计独立,随机独立或者依概率独立,多数情况下,如果不引起误解我们一般用独立。
例8: 红白双方分别掷骰子,如果 C1 表示红方掷出 4 ,C2表示白方掷出 3 ,P(C1)=16,P(C2)=16,那么根据独立性,有序数对 (4,3) 的概率是
P[(4,3)]=(16)(16)=136数对和等于7的概率是
P[(1,6),(2,5),(3,4),(4,3),(5,2),(6,1)]=(16)(16)+(16)(16)+(16)(16)+(16)(16)+(16)(16)+(16)(16)=636同样得,我们可以算出和为 2,3,4,5,6,7,8,9,10,11,12 的概率分别为
136,236,336,436,536,636,536,436,336,236,136,假设有三个事件 C1,C2,C3 ,当且仅当他们每对独立即
P(C1∩C3)=P(C1)P(C3),P(C1∩C2)=P(C1)P(C2),P(C2∩C3)=P(C2)P(C3),且
P(C1∩C2∩C3)=P(C1)P(C2)P(C3)时,我们称他们互相独立。对于 n 个事件C1,C2,…,Cn,当且仅当对每 k 个集合,2≤k≤n,下面事实为真:
d1,d2,…,dk 是 1,2,…,n 中不同的整数;那么
P(Cd1∩Cd2∩⋯∩Cdk)=P(Cd1)P(Cd2)⋯P(Cdk)另外对任意两个由这些事件以及他们的补构成的组合也是独立的,例如
事件 Cc1 与 C2∪Cc3∪C4 是独立的;事件 C1∪Cc2,Cc3 与 C4∩Cc5 是互相独立的。在不引起误解的情况下,在考虑多于两个事件时我们依然用独立,而不是互相独立。
我们经常会执行一些随机试验,这些事件互相是独立的。为了简便我们将这些事件称为独立试验,也就是说各个事件是独立的,因此我们经常独立的抛硬币或独立的掷骰子。
例9: 独立地掷几次硬币,令事件 Ci 表示第 i 次头(H)朝上;那么 Cci 表示尾 (T) 朝上。假设 Ci 与 Cci 是等可能的;即 P(Ci)=P(Cci)=12 ,所以像 HHTH 这样有序数列的概率是
P(C1∩C2∩Cc3∩C4)=P(C1)P(C2)P(Cc3)P(C4)=(12)4=116同样得,第三次头朝上的概率是
P(Cc1∩Cc2∩C3)=P(Cc1)P(Cc2)P(C3)=(12)3=18另外四次中至少有一次头朝上的概率为
P(C1∪C2∪C3∪C4)=1−P[(C1∪C2∪C3∪C4)c]=1−P(Cc1∪Cc2∪Cc3∪Cc4)=1−124=1516例10: 有一个计算系统,如果组件 K1 发生故障,那么使用 K2 ,如果 K2 发生故障,那么使用 K3 。 假设 k1 发生故障的概率是 0.01 , K2 发生故障的概率是 0.03 , K3 发生故障的概率是 0.08 。 而且我们假设这三个组件发生故障是互相独立的,那么这系统发生故障的概率是
(0.01)(0.03)(0.08)=0.000024因此系统不发生故障的概率是 1−0.000024=0.999975 。