这里有博文介绍。 每个核函数的用途:
3359 blog.csdn.net/batuwuhanpei/article/details/52354822
gddwn课上也展示过一系列选择核函数的方法:
1、如果特征的数目与样本数目一样大,则选择LR或线性核的SVM;
2、当特征数小、样本数正常时,选择SVM博弈的挞核函数;
3、特征数量少、样本数量多时,需要手工添加特征使其成为首要情况。
gsdld对这三点的理解:
)1)当特征维数较高时,可以采用LR或线性核的SVM (SVM非线性分类问题的解决方案是将样本映射到更高维的特征空间)。
)2)当样本数较大时,在求解优化问题时,目标函数涉及两个样本计算内积,使用松弛的挞核计算量比线性核计算量明显增多,因此需要手动添加特征以实现线性分离,然后使用LR或线性核的SVM
)3)在不满足上述两点的情况下,即特征维数少,样本数正常,则可以使用随机抽样核的SVM。
SVC参数说明:
(1)用于平衡C:目标函数的惩罚系数c、分类间隔margin和误分类样本的,default C=1.0;
)2) kernel )参数的选择有RBF、Linear、Poly、Sigmoid,默认为' RBF ';
)3) degree:if you choose ' poly ' inparam 2,this is effective,degree确定多项式的最高次幂;
(4)伽马)核函数的系数)、(RBF ) and ) sigmoid ),默认为伽马=1/n_features;
(5) coef0)内核函数中的独立项,“RBF' and 'Poly”有效;
)6) probablity:可能性估计是否使用(true or false );
)7) shrinking :是否进行启发式;
(8) tol ) default=1e-3 ) : svm退刀精度;
) cache_size:培训所需的内存(以MB为单位);
(10 )对class_weight:每类所占权重、每类设定不同的惩罚参数c,默认自适应;
) 11 ) verbose:与多线程有关,不太清楚具体含义;
(12 ) max_iter:最大重复次数,default=1,if max_iter=-1,no limited;
) 13 ) decision _ function _ shape :‘ovo’为一对一,‘ovr’为多对多无or None,default=None
(14 )用于概率估计的数据重排时伪随机数生成器的种子。
注意: (7)、(8)、(9)一般不考虑。