用对偶法求解 SVR

支持向量回归(Support Vector Regression,SVR)

是一种有“宽容度”的回归模型,


即 它在线性函数两侧制造了一个“间隔带”,对于所有落入到间隔带内的样本,都不计算损失;只有间隔带之外的,才计入损失函数


模型函数为:y = wx + b

目标为:最小化间隔带的宽度与总损失

SVR 希望所有的样本点都落在“隔离带”里面


引入了两个松弛变量


我们最终要求的是 w 和 b,

也用对偶方法进行求解,分为以下几步:


1. 首先它是符合强对偶的三个条件的,

2. 然后求出它的拉格朗日函数



3. 再求下确界函数,方法是对W和b,还有两个松弛变量求偏导,令其等于零,得到的关系式代入拉格朗日函数,然后得到了只有两个参数 alpha alpha* 的对偶问题,并将极大值问题转化为极小值问题。这一步同时得到了 w 的表达式

4. 接着用 SMO算法的 KKT 条件,将两个参数的对偶问题转换为一个参数 lambda 的对偶问题



5. 由 KKT 条件得出,落在隔离带边缘超平面上的样本,是 SVR 的支持向量,于是由支持向量得到 b 的表达式


6. 至此 w 和 b 表达式都得到了,进而得到了 SVR 的模型函数

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 【概述】 SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧(分类正确性即“分得开”),且样本到超平面...
    sealaes阅读 13,833评论 0 7
  • 以西瓜书为主线,以其他书籍作为参考进行补充,例如《统计学习方法》,《PRML》等 第一章 绪论 1.2 基本术语 ...
    danielAck阅读 10,171评论 0 5
  • 接触机器学习时间也不短了, 趁国庆放假, 做一下深度整理. 1. 大纲 若想在企业胜任算法相关岗位知识, 除了掌握...
    婉妃阅读 8,685评论 2 92
  • 第五篇 防微杜渐篇 第十四章 刺激线索与刺激控制 刺激控制是指一个刺激的特性改变会引起某些反应性质或反应出现率的改...
    文昌许珊珊阅读 1,326评论 0 1
  • 在这样一个日子里,想起了我平静坚忍的从前。 从不多话,从不抱怨,从不想在人群中被发现,只想要在一个角落里,静静生长...
    11_18阅读 2,755评论 0 0