码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习技法(5)--Kernel Logistic Regression

时间:2016-09-30 02:22:10      阅读:163      评论:0      收藏:0      [点我收藏+]

标签:

回顾一下soft margin SVM的知识:

技术分享

然而从另一个角度来看,分为真的有犯错和没有犯错:

技术分享

在没有犯错的时候,ξn=0就好了。于是ξn就可以写成一个求max的过程。根据这个思路,我们有了SVM的新形式:

技术分享

这样一来,ξn就不再是一个独立的变量,它变成了一个由b和w决定的变量,这样的话,式子又被简化了。

简化后的式子和L2的正则差不多:

技术分享

SVM和正则化有很多相似的点:

技术分享

这些联系可以帮助我们以后换一种视角看待SVM。

下面从错误衡量的视角看LR和SVM:

技术分享

由此可以看出SVM≈L2的LR。

那么再比较一下他们在二分类问题时的优缺点:

技术分享

LR做二元分类比较好,因为它有个几率的概念;SVM只有固定的解,但是它有kernel这个好武器。

技术分享

先跑个SVM,得到b和w;

再做一些放缩和平移的处理。

得到新的问题:

技术分享

具体的步骤:

技术分享

kernel的本质其实就是w可以表示成输入数据的线性组合。那么如果用这样的思路去看L2正则:

技术分享

上图证明了L2正则也可以被kernel的(kernelized)。接下来就可以继续证明LR也可以被kernel:

技术分享

技术分享

总结:

技术分享

 

机器学习技法(5)--Kernel Logistic Regression

标签:

原文地址:http://www.cnblogs.com/cyoutetsu/p/5922210.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!