如何理解 SVR (支持向量回归 )

SVR 全名为 support vector regression ,是SVM 的一种运用。对于svm的理解,可以参考此篇文章此文章

回归和分类,从某种意义上来说,基本上是一回事儿。SVM 分类,就是找到一个平面,让两个分类集合的支持向量距离分类平面最远。而 SVR 回归,就是找到一个回归平面,让一个集合所有的数据到该平面的距离最近。

当数据完全落在模型上时,该平面的损失为零。但这一般时不可能发生的情况。而且各个“点”到平面的距离和还挺大。所以呢,要给一个偏差值,使得函数平面与数据的距离误差,在偏差值之内。(这样就是防止过拟合了)

也就是说如上图所示,相当于以 f(x) 为中心,构建了一个宽度为 2 \varepsilon 的间隔带。若训练样本落入了此间隔带,则认为是被训练正确的。

参考文章:

https://www.cnblogs.com/pinard/p/6097604.html

https://blog.csdn.net/promisejia/article/details/81477439?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.compare&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.compare

https://blog.csdn.net/v_july_v/article/details/7624837

未经允许不得转载:书生吴小帅 » 如何理解 SVR (支持向量回归 )

赞 (1)