广义线性回归模型:
设为系数向量(coef_ ); 作为切片(intercept_ )
1 .一般最大frdct乘法(Ordinary Least Squares ) ) )。
线性回归的目的是:是的,预测值和实际值的残差平方和最小。
importmatplotlib.pyplotaspltimportnumpyasnp #加载数据集“数据集”fromsklearnimportdatasets, linear_model#糖尿病数据集diabetes=datasets.load _ diabetes (#使用其特征之一, np.newaxis的作用是增加维度diabetes _ x=diabetes.data [2] x变量数据集通过训练集和测试集diabetes _ x _ train=diabetes _ data diabetes _ x _ test=diabetes _ x [-203360 ] # y将目标变量划分为训练集和测试集diabetes _ y _ train=diabetes.target [ 333330 ] 使用训练数据训练模型regr.fit (diabetes_y_train,diabetes _ y _ train )相关系数print(coefficients3360(n ), regr.coef_ (查看的MSE ) print (residualsumofsquares 3360 %.2f ) #%是, %NP.mean ) (regr.predict )- diabetes_y_test )-diabetes )的格式explainedvariancescore :1 isperfectprediction )系数r ) R^2=1 - u/v,u是残差的平方,u=) y_true-y v=(y_true-y_true.mean () (2).sum ) ) print ) ' varue 测试点PLT.Scatter ) diabetes_x_test,diabetes_y_test,color='black ' )绘制预测点PLL color=' blue ',line wine
常规最大frdct乘法计算复杂度
该方法通过x奇异值分解(singular value decomposition,SVD )计算最大frdct幂的解,如果x大于(n,p )矩阵) n,则成本为
3358 sk learn.lzjqsdd.com/auto _ examples/linear _ model/plot _ ols.html # example-linear-model-plot-ols