首页 > 编程知识 正文

常见的火源有七种类型,回归分析的方法

时间:2023-05-04 05:43:51 阅读:124728 作者:384

什么是回归分析?回归分析是一种预测性建模技术,研究因变量(目标)与自变量(自变量)预测器)的关系。 该技术通常用于发现预测分析、时间序列模型和变量之间的因果关系。 例如,司机鲁莽驾驶与道路交通事故数量的关系,回归是最好的研究方法。

回归分析是数据建模和分析的重要工具。 在这里,我们使用曲线/线条拟合这些数据点。 这种方法使曲线或线条到数据点的距离差最小。 我们将在下一节详细讨论这一点。

我们为什么使用回归分析?如上所述,回归分析估计了两个或多个变量之间的关系。 举个简单的例子吧。

例如,在目前的经济状况下,需要估计一家公司销售额的增长。 现在你有公司的最新数据。 这些数据表明销售额的增长约是经济增长的2.5倍。 使用回归分析,可以根据现在和过去的信息预测将来公司的销售状况。

使用回归分析的好处很多。 具体如下。

1 .显示了自变量和因变量之间的显著关系

2 .显示多个参数对一个因素变量的影响强度。

回归分析还可以比较衡量不同尺度的变量之间的相互影响,如价格波动和市场活动数量。 它们有助于市场研究人员、数据分析人员和数据科学家消除和估计一组最佳变量以建立预测模型。

我们有多少种回归技术?各种回归技术被用于预测。 这些技术主要有三种度量。 自变量的数量取决于变量的类型和回归直线的形状。 这些将在下一节中详细讨论。

如果你认为对于有想法的人,需要使用上面这些参数的组合,你甚至可以建立一个没有使用的回归模型。 但是,在开始之前,请理解以下最常用的回归方法。

1. Linear Regression线性回归

是最广为人知的建模技术之一。 线性回归通常是学习预测模型时优先考虑的技术之一。 在该技术中,由于变量是连续的,所以自变量可以是连续的也可以是离散的,回归直线的性质是线性的。

线性回归使用最佳拟合直线(回归直线)在因数变量(y )和一个或多个自变量(x )之间建立关系。

用Y=a b*X e这个方程式表示这个。 其中,a是截距,b是直线的斜率,e是误差项。 这个方程可以根据给定的预测变量(s )预测目标变量的值。

线性回归和多元线性回归的区别在于,多元线性回归有(1)个自变量,而线性回归通常只有一个自变量。 现在的问题是:“如何得到最佳的拟合线呢? ”。

如何获得最佳拟合线(a和b的值)?

这个问题最容易用skdym乘法完成。 skdym乘法也是拟合回归直线最常用的方法。 对于观测数据,通过最小化从各数据点到线的垂直偏差平方和来计算最佳拟合线。 加法运算时,由于偏差先平方,所以正值和负值不抵消。

要评估模型的性能,请使用R-square指标。 有关这些指标的详细信息,请参见模型的性能指标Part 1、Part 2。

要点:

自变量和自变量之间必须有线性关系

多元回归有多重共线性、自相关性、方差性。

线性回归对异常值非常敏感。 严重影响回归直线,最终影响预测值。

多重共线性增加了系数估计的方差,在模型的微小变化中非常敏感地估计。 其结果,系数估计值变得不稳定

在多个参数的情况下,可以使用前方选择法、后方去除法、逐次筛选法来选择最重要的参数。

2.Logistic Regression逻辑回归

逻辑回归用于计算“事件=Success”和“事件=故障”的概率。 如果变量类型为二元(1/0,真/假,是/否)变量,则应该使用逻辑回归。 这里,y的值从0到1,它可以用以下方程式表示。

Java

1

2

3

ODDS=p/(1-p )=probabilityofeventoccurrence/probabilityofnoteventoccurrence

ln(odds )=ln (p/(1- p ) )

logit(p )=ln (p/)1-p ) )=b0 b1X1 b2X2 b3X3. bkXk

在上述公式中,p表示具有某个特征的概率。 “我们为什么在公式中使用对数log? 应该会问“”。

这里使用的是的二元分布,所以需要选择最适合这个分布的

连结函数。它就是Logit函数。在上述方程中,通过观测样本的极大似然估计值来选择参数,而不是最小化平方和误差(如在普通回归使用的)。

 

 

要点:

它广泛的用于分类问题。

逻辑回归不要求自变量和因变量是线性关系。它可以处理各种类型的关系,因为它对预测的相对风险指数OR使用了一个非线性的log转换。

为了避免过拟合和欠拟合,我们应该包括所有重要的变量。有一个很好的方法来确保这种情况,就是使用逐步筛选方法来估计逻辑回归。

它需要大的样本量,因为在样本数量较少的情况下,极大似然估计的效果比普通的最skdym乘法差。

自变量不应该相互关联的,即不具有多重共线性。然而,在分析和建模中,我们可以选择包含分类变量相互作用的影响。

如果因变量的值是定序变量,则称它为序逻辑回归。

如果因变量是多类的话,则称它为多元逻辑回归。

 

3. Polynomial Regression多项式回归

对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程。如下方程所示:

 

Java

 

1

y=a+b*x^2

在这种回归技术中,最佳拟合线不是直线。而是一个用于拟合数据点的曲线。

 

 

 

重点:

虽然会有一个诱导可以拟合一个高次多项式并得到较低的错误,但这可能会导致过拟合。你需要经常画出关系图来查看拟合情况,并且专注于保证拟合合理,既没有过拟合又没有欠拟合。下面是一个图例,可以帮助理解:

 

 

 

明显地向两端寻找曲线点,看看这些形状和趋势是否有意义。更高次的多项式最后可能产生怪异的推断结果。

 

4. Stepwise Regression逐步回归

在处理多个自变量时,我们可以使用这种形式的回归。在这种技术中,自变量的选择是在一个自动的过程中完成的,其中包括非人为操作。

这一壮举是通过观察统计的值,如R-square,t-stats和AIC指标,来识别重要的变量。逐步回归通过同时添加/删除基于指定标准的协变量来拟合模型。下面列出了一些最常用的逐步回归方法:

标准逐步回归法做两件事情。即增加和删除每个步骤所需的预测。

向前选择法从模型中最显著的预测开始,然后为每一步添加变量。

向后剔除法与模型的所有预测同时开始,然后在每一步消除最小显着性的变量。

这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。

 

5. Ridge Regression岭回归

岭回归分析是一种用于存在多重共线性(自变量高度相关)数据的技术。在多重共线性情况下,尽管最skdym乘法(OLS)对每个变量很公平,但它们的差异很大,使得观测值偏移并远离真实值。岭回归通过给回归估计上增加一个偏差度,来降低标准误差。

上面,我们看到了线性回归方程。还记得吗?它可以表示为:

 

Java

 

1

y=a+ b*x

这个方程也有一个误差项。完整的方程是:

 

Java

 

1

y=a+b*x+e (error term), [error term is the value needed to correct for a prediction error between the observed and predicted value]

 

 

Java

 

1

=> y=a+y= a+ b1x1+ b2x2+....+e, for multiple independent variables.

在一个线性方程中,预测误差可以分解为2个子分量。一个是偏差,一个是方差。预测错误可能会由这两个分量或者这两个中的任何一个造成。在这里,我们将讨论由方差所造成的有关误差。

岭回归通过收缩参数λ(lambda)解决多重共线性问题。看下面的公式

 

 

 

在这个公式中,有两个组成部分。第一个是最skdym乘项,另一个是β2(β-平方)的λ倍,其中β是相关系数。为了收缩参数把它添加到最skdym乘项中以得到一个非常低的方差。

要点:

除常数项以外,这种回归的假设与最skdym乘回归类似;

它收缩了相关系数的值,但没有达到零,这表明它没有特征选择功能

这是一个正则化方法,并且使用的是L2正则化。

 

6. Lasso Regression套索回归

它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。看看下面的公式:

 

 

 

Lasso 回归与Ridge回归有一点不同,它使用的惩罚函数是绝对值,而不是平方。这导致惩罚(或等于约束估计的绝对值之和)值使一些参数估计结果等于零。使用惩罚值越大,进一步估计会使得缩小值趋近于零。这将导致我们要从给定的n个变量中选择变量。

要点:

除常数项以外,这种回归的假设与最skdym乘回归类似;

它收缩系数接近零(等于零),这确实有助于特征选择;

这是一个正则化方法,使用的是L1正则化;

如果预测的一组变量是高度相关的,Lasso 会选出其中一个变量并且将其它的收缩为零。

 

7.ElasticNet回归

ElasticNet是Lasso和Ridge回归技术的混合体。它使用L1来训练并且L2优先作为正则化矩阵。当有多个相关的特征时,ElasticNet是很有用的。Lasso 会随机挑选他们其中的一个,而ElasticNet则会选择两个。

 

Lasso和Ridge之间的实际的优点是,它允许ElasticNet继承循环状态下Ridge的一些稳定性。

要点:

在高度相关变量的情况下,它会产生群体效应;

选择变量的数目没有限制;

它可以承受双重收缩。

除了这7个最常用的回归技术,你也可以看看其他模型,如Bayesian、Ecological和Robust回归。

 

如何正确选择回归模型?

ldhb只知道一个或两个技术时,生活往往很简单。我知道的一个培训机构告诉他们的学生,如果结果是连续的,就使用线性回归。如果是二元的,就使用逻辑回归!然而,在我们的处理中,可选择的越多,选择正确的一个就越难。类似的情况下也发生在回归模型中。

在多类回归模型中,基于自变量和因变量的类型,数据的维数以及数据的其它基本特征的情况下,选择最合适的技术非常重要。以下是你要选择正确的回归模型的关键因素:

数据探索是构建预测模型的必然组成部分。在选择合适的模型时,比如识别变量的关系和影响时,它应该首选的一步。

比较适合于不同模型的优点,我们可以分析不同的指标参数,如统计意义的参数,R-square,Adjusted R-square,AIC,BIC以及误差项,另一个是Mallows’ Cp准则。这个主要是通过将模型与所有可能的子模型进行对比(或谨慎选择他们),检查在你的模型中可能出现的偏差。

交叉验证是评估预测模型最好额方法。在这里,将你的数据集分成两份(一份做训练和一份做验证)。使用观测值和预测值之间的一个简单均方差来衡量你的预测精度。

如果你的数据集是多个混合变量,那么你就不应该选择自动模型选择方法,因为你应该不想在同一时间把所有变量放在同一个模型中。

它也将取决于你的目的。可能会出现这样的情况,一个不太强大的模型与具有高度[*]统计学意义的模型相比,更易于实现。

回归正则化方法(Lasso,Ridge和ElasticNet)在高维和数据集变量之间多重共线性情况下运行良好。

 

 

本文转载自:https://www.cnblogs.com/sumuncle/p/5647722.html

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。