SVM支持向量机(二)

支持向量

在线性不可分的情况下,对偶问题的解

中对应于alphai>0的样本点(xi,yi)的实例xi称为支持向量(软间隔支持向量)


软间隔支持向量xi或者在间隔边界上,或者在间隔边界和分离超平面之间,或者在误分类一侧。当eta=1时恰好落在分离超平面上

合页损失函数

对于线性支持向量机学习来说,其模型为分离超平面wx+b=0以及决策函数f(x

)=sign(wx+b),其学习策略为软间隔最大化,学习算法为凸二次规划

线性支持向量机学习还有另外一种解释,就是最小化以下目标函数:

目标函数的第一项为经验损失函数

这就是说,当样本被正确分类且函数间隔(确信度)y(wx+b)大于1时,损失是0,否则损失是1-y(wx+b)。特别注意间隔边界到分离平面之间的点损失不是0。第二项是系数为lambda的w的L2范数是正则化项

合页函数是0-1损失函数推导而来(也是二分类问题真正的损失函数,但不是连续可导的)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容