SVM总结

本文总结了SVM的核心内容,包括线性可分、线性支持向量机和非线性支持向量机。线性可分SVM采用最大间隔法,线性SVM引入松弛变量解决非完全可分问题,非线性SVM通过核函数在高维空间实现线性划分。求解SVM通常使用SMO算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SVM总结

在学习机器学习的常用算法中,在SVM上花费了大量的时间,今天写个知识点总结吧!
SVM包括:线性可分向量机、线性支持向量机和非线性支持向量机。

  • 线性可分向量机:顾名思义,构建它的条件是训练数据线性可分,学习策略是最大间隔法。可以表示为凸二次优化规划问题,其原始最优化问题为 minw,b12||w||2 s.t. yi(w.xi+b)10;分离的超平面是w.x+b=0;分类决策函数是 f(x)=sign(w.x+b=0)。线性可分向量机的最优解存在且唯一,位于间隔边界上的实例点为支持向量
  • 线性支持向量机:由于现实中可分的训练数据很少,因此在线性可分向量机的基础上增加了一个松弛变量ε,其对应的凸二次规化问题变成了 minw,b12||w||2+Ci=1εi s.t. yi(w.xi+b)1εi,εi0. 线性支持向量机的解w唯一,但b不唯一。
  • 非线性支持向量机:对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个高维特征空间中的线性分类问题,在高维特征空间中学习线性支持向量机。由于在线性支持向量机的学习的对偶问题中,目标函数和分类决策函数都只涉及内积,所以不需要显示地指定非线性变换,而是用核函数来替换当中的内积。核函数K(x,z)意味着存在一个从输入空间χ到特征空间H的映射Φ(x),对任意x,z χ,有 K(x,z)=Φ(x).Φ(z).即用核函数K(x,z)代替内积,得到的就是非线性支持向量机$
  • *求解SVM中的凸二次规划问题可以使用SMO算法,该算法主要包括两个部分:求解两个变量的二次规划的解析方法和选择变量的启发式方法。即将原始求解问题分解成两个变量的子问题,当解完两个变量的最优化问题后,检查原始问题是否得以满足,若满足则求得最优解,结束。否则再次选择两个优化变量,直至求得最优解
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值