文章目录引言实战
引言
为什么Lasso算法可以用于特征选择呢? Lasso算法可以压缩特性的系数,使某些回归系数为0,即不选择特性,因此可以选择特性。 与此相同的线性回归归一化方法Ridge回归只能使部分回归系数接近0,不能起到特征选择的作用。
Lasso回归方法的优点可以弥补最小二乘法和逐步回归局部最优估计的不足,可以很好地进行特征选择,有效地解决各特征之间存在的多重共线性问题。缺点在存在一系列高度相关的特征时,Lasso回归倾向于选择一个特征而忽略所有其他特征,从而导致结果的不稳定性。
实战data.csv数据,提取代码: 1234
importpandasaspdimportnumpyasnpfromsklearn.linear _ modelimportlassodata=PD.read _ CSV (数据/数据. CSV ),he ader -1]#取alpha=1000进行特征提取的lasso=lasso (alpha=1000,random_state=1) lasso.fit(x ) )。 5 ) coef=PD.dataframe(lasso.coef_,index=x.columns ) print )相关系数数组为(n (,coef ) )相关系数为0的rrdzc序列mask=Lassk
x1 -0.000176
x2 -0.000000
x3 0.124143
x4 -0.010312
x5 0.065400
x6 0.000115
x7 0.317411
x8 0.034900
x9 -0.000000
x10 0.000000
x11 0.000000
x12 0.000000
x13 -0.040299
见《python数据分析与挖掘实战》
如果对你有帮助的话,请关注麻烦的事情。 这真的对我很重要。 需要相互关系时,请发表评论或私信!