soft-svm的理解+logistic 与SVM结合输出概率值+logistic 用到z域

    xiaoxiao2025-07-26  5

    软svm就是L2规范化soft-svm的err_svm是err_01的上限且svm就是对logistic regression 进行L2处理形式logistic 与SVM结合 用svm输出概率值logistic回归解z域的情况一定要在z域解logistic回归的问题 Kernel Logistic Regression 与svm无关只是借用其kernel的思想

    软svm就是L2规范化

    我们上一讲得到,soft-svm的形式为 其实我们根据 可以得到 那么原来的soft-svm的表达式就是 发现没有,这已经变成了没有约束条件的形式。 发现他与我们可以简化为 其实他就是L2泛化的形式 其实他就是L2泛化的形式,只是区别是,L2泛化是最小化err,用 wTw 来约束过拟合。而soft-svm是最小化 wTw ,用C,err约束过拟合。 我把svm与以前泛化的形式进行比较 发现,svm就是泛化函数。

    soft-svm的 errsvm err0/1 的上限,且svm就是对logistic regression 进行L2处理形式

    errsvm 为 画出的 errsvm 0/1svm 形式的图形为 可以发现 errsvm err0/1 的上限。

    我们再把logistic regression的err曲线加上去 注意,这里logistic regression的err除了一个 ln2 在横坐标ys改变时, errsvm err0/1 变化曲线很相近。且有 所以,我们说soft-svm大概就是logistic regression进行L2 泛化后的形式。

    logistic 与SVM结合 用svm输出概率值,logistic回归解z域的情况

    我们前面学得输出概率值得模型,就是logistic 回归。 为了能够svm的特性(kernel)和logistic的特性(最大似然值)结合起来,总结一个姓的模型 那么新logistic回归的值为 那么新模型的运算步骤为

    这种情况下, 可以理解为可以用logistic回归解决z域的情况,但其实并不完全是这样的。因为我们这里其实仅仅是用svm来解决z域 的值,然后将其带入logistic 回归里。所以并不是真正的在z域里解logistic 回归问题。

    一定要在z域解logistic回归的问题 Kernel Logistic Regression (与svm无关,只是借用其kernel的思想)

    我们在解svm时,用到kernel函数化简z域的问题。之所以是这样,原因为我们得到的 w 是z的线性组合。当 w 是z的线性组合时,就可以把 wTz 转化为 zTz 的形式,就表示出核函数了。。 那么在Logistic Regression我们也希望这样做,即希望 w 是z的线性组合。 其实有一个结论: 当我们的模型是L2规范化线性模型时,即形如 那么他的最优解 w 就可以满足w_*$是z的线性组合。 证明: 则有 =0,如果以上结论不成立的话, 则不为0,则 又是最优的,即他们值应该最小,可是这里得到其大于,矛盾,所以为0 ,则,则可以满足w_*$是z的线性组合。

    那么就可以化简为 由于他没有约束条件,那么他用 GD/SGD等等都可以求解。 他的缺点是比上面logistic+svm运算量大一些。

    Kernel Logistic Regression (KLR) 的理解

    转载请注明原文地址: https://ju.6miu.com/read-1301086.html
    最新回复(0)