SVM介绍支持向量机(SVM )是一个二分类模型,其基本模型是特征空间中定义的间隔最大的线性分类器,间隔最大的与感知机不同; SVM还包括核技术,这将成为实质性的非线性分类器。 SVM的学习策略是间隔最大化,可以形式化为求解凸二次规划的问题,等价于正则化最小化铰链损失函数的问题。 SVM的学习算法是求解凸二次规划的优化算法。
SVM发展史
margin SVM学习的基本思路是正确分割训练数据集,求解几何间隔最大的分离超平面。
优化有约束目标函数的原目标函数是一类含不等式约束的凸二次规划问题,对此可以用拉格朗日乘子方法得到对偶问题双精度问题. 将有约束的原始目标函数转换为无约束新结构的拉格朗日目标函数。
简单样本
soft margin引入了“软间隔”的概念,该概念实际上几乎没有完全线性可分离的数据,但为了解决这个问题,允许某一点不满足限制,而是在间隔内收敛。
针对输入空间中的非线性分类问题,非线性SVM通过非线性变换转化为某一维特征空间中的线性分类问题,在高维特征空间中学习线性支持向量机。
在线性支持向量机学习的对偶问题中,目标函数和分类决策函数都只处理事例和事例内积,因此不需要显式指定非线性变换,而是用核函数替换内积。
通过核函数,实现了原空间从线性不可分问题到高维空间线性可分问题的转换,同时避免了高维空间计算复杂度过高的问题。
核函数多项式核函数、zsddx核函数等
将原始空间内积转换为高维空间内积,再转换为核函数。