首页 > 编程知识 正文

回归问题评估模型的三个指标是什么,回归问题评估模型的三个指标包括

时间:2023-05-05 08:13:40 阅读:239633 作者:2224

回归模型三种损失函数

回归问题看的是我们预测的y值和原始的y值相差到底有多大,我们通常都会训练多个模型,可以通过下面几个方法来评估模型的好坏。

对于回归模型效果的判断指标经过了几个过程,从SSE到R-square再到Ajusted R-square, 是一个完善的过程:
SSE(误差平方和):The sum of squares due to error                                                                                                                MSE(均方误差):Mean square error
R-square(决定系数):Coefficient of determination
Adjusted R-square:Degree-of-freedom adjusted coefficient of determination

下面我对以上几个名词进行详细的解释下,相信能给大家带来一定的帮助!!
一、SSE(误差平方和)
计算公式如下:

同样的数据集的情况下,SSE越小,误差越小,模型效果越好
缺点:
SSE数值大小本身没有意义,随着样本增加,SSE必然增加,也就是说,不同的数据集的情况下,SSE比较没有意义

二、MSE(均方误差)

计算公式如下:

这是SSE的一个变形,和L2损失函数是一样的。如果回归模型的损失函数是L2,做验证的时候可以直接用损失函数来评估模型。

三、R-square(决定系数)

计算公式如下:

数学理解: 分母理解为原始数据的离散程度,分子为预测数据和原始数据的误差,二者相除可以消除原始数据离散程度的影响
其实“决定系数”是通过数据的变化来表征一个拟合的好坏。
理论上取值范围(-∞,1], 正常取值范围为[0 1] ------实际操作中通常会选择拟合较好的曲线计算R²,因此很少出现-∞
越接近1,表明方程的变量对y的解释能力越强,这个模型对数据拟合的也较好
越接近0,表明模型拟合的越差
经验值:>0.4, 拟合效果好
缺点:
数据集的样本越大,R²越大,因此,不同数据集的模型结果比较会有一定的误差

三、Adjusted R-Square (校正决定系数)
计算公式如下:


n为样本数量,p为特征数量
消除了样本数量和特征数量的影响
————————————————
版权声明:本文为CSDN博主「Dana-Song」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/shy19890510/article/details/79375062

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。