统计学习-朴素贝叶斯

    xiaoxiao2023-03-24  8

    朴素贝叶斯(naive Bayes)法是基于贝叶斯定理和特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布,然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。 也就是说朴素贝叶斯可以分为两部分,一部分是基于特征条件独立假设求出输入输出的联合概率分布,一部分就是基于贝叶斯定理求出后验概率。 1. P(x,y)=P(x|y)P(y)=P(xk1,xk2...,xkn|yk)P(yk)=ni=1P(xki)P(yk) ; 2. P(y|x)=P(x|y)P(y)P(x)

    后验概率最大化

    选择0-1损失函数: L(Y,f(x))={10Yf(X))Y=f(X) 式中的 f(X) 是分类决策函数,这时候期望风险函数为: Rexp(f)=E[L(Y,f(X))] 期望是对联合分布 P(X,Y) 取的,由此取条件期望: Rexp(f)=EX[Kk=1(L(ck,f(X))P(ck|X))] 为了使期望风险最小化,只需要对 X=x 逐个极小化,由此得到: f(x) = argminKk=1(L(ck,f(X))P(ck|X)) = argminKk=1P(f(X)ck|X=x) = argmin(1P(y=ck|X=x)) = argmaxP(y=ck|X=x)) 这样一来期望风险最小化准则就得到后验概率准则

    贝叶斯估计

    用极大似然估计可能会出现所有估计得概率值为0的情况。这时会影响到后验概率的计算,解决这种情况一般使用贝叶斯估计。 p(y=ck)=Ni=1Iyi=ck+λN+Kλ1 p(xj=ajl|y=ck)=Ni=1I(xji=ajl,yi=ck)+λNi=1I(yi=ck)+Ljλ2 Ljl=1p(xj=ajl|y=ck)=13 K,Ljj

    转载请注明原文地址: https://ju.6miu.com/read-1202054.html
    最新回复(0)