1.SVM原理
SVM是两种分类模型。 其基本模型是寻找特征空间中间隔最大化的分离超平面的线性分类器。
如果训练样本是线性的且可时分的,那么可通过最大化硬间隔来学习线性识别器,即线性的且可分割的支持向量机
如果训练数据接近线性,那么通过引入松弛变量且最大化软间隔来学习线性识别器(即线性支持向量机)
如果训练数据是线性的、不可分时的,通过最大化核技巧和软间隔来学习非线性支持向量机。
硬间隔最大化(几何间隔)、学习对偶问题、软间隔最大化)、非线性支持向量机) )核技巧)。
2.为什么SVM要引入核函数?
如果样本在原始空间中不可线性分离,则样本可以被从原始空间映射到高维特征空间,使得样本可以在该特征空间中线性分离。 引入这种映射后,对于求解所要求解的对偶问题的求解,不需要求解真映射函数,而只需要知道其核函数即可。
内核函数的定义: k(x,y )=) x ),y ),即特征空间中的内积等于内核函数k在原始样本空间中的计算结果。 一方面数据成为高维空间可线性分离的数据,另一方面不需要求解具体的映射函数,只需给出具体的核函数即可,求解难度大大降低。