首页 > 编程知识 正文

正则化和归一化的区别,正则化的作用

时间:2023-05-06 09:06:25 阅读:246853 作者:1274

推荐:https://blog.csdn.net/jinping_shi/article/details/52433975 推荐:ML中的过拟合问题 1.欠拟合/过拟合现象 1.1 现价预测问题(回归问题)

、、

三种方法:

        线性拟合:很多数据未拟合

        二次拟合:

        四次拟合:过拟合

1.2 分类问题--第2个图比较好

不知道你之前有么有看到过这张图片?当我们训练模型时,我们的模型甚至会试图学到训练数据中的噪声,最终导致在测试集上表现很差。

换句话说就是在模型学习过程中,虽然模型的复杂性增加、训练错误减少,但测试错误却一点也没有减少。这在下图中显示。

1.3 特点

过拟合:训练数据上表现良好,在位置数据表现差

欠拟合:在训练和测试时表现都不好。

 

2.原因 2.1 三种误差

 

2.2  分析

 

3.解决方案

欠拟合解决方案

1)特征不够欠拟合,增加特征

2)线性拟合效果不好,可以采用二次拟合

过拟合解决方案

1)数据重新清洗:数据冗余/不纯

2)增大数据的训练量--A点过拟合,增加训练量到达B

3)正则化:一般在目标函数之后加上对应范数。一般用L2正则化

L1正则化--特征选择

L2正则化--防止过拟合

L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择L2正则化可以防止模型过拟合(overfitting);一定程度上,L1也可以防止过拟合 L1正则产生稀疏模型的理解:

 

J=J0+alpha∑w|w|(1)(1)J=J0+alpha∑w|w|


其中J0J0 是原始的损失函数,后半部分为L1L1 正则化项,为绝对值之和,羞涩的犀牛 带有绝对值符号的函数,因此羞涩的犀牛 是不完全可微的。机器学习的任务就是要通过一些方法(比如梯度下降)求出损失函数的最小值。当我们在原始损失函数J0J0 后添加L1正则化项时,相当于对J0J0做了一个约束。令L=α∑w|w|L=α∑w|w|,则J=J0+LJ=J0+L,此时我们的任务变成在LL约束下求出J0J0取最小值的解。考虑二维的情况,即只有两个权值w1w1和w2w2,此时L=|w1|+|w2|L=|w1|+|w2|对于梯度下降法,求解J0J0的过程可以画出等值线,同时L1L1正则化的函数LL也可以在w1w2w1w2的二维平面上画出来。如下图:

 

图中等值线是J0J0的等值线,黑色方形是LL函数的图形。在图中,当J0J0等值线与LL图形首次相交的地方就是最优解。上图中J0J0与LL在LL的一个顶点处相交,这个顶点就是最优解。注意到这个顶点的值是(w1,w2)=(0,w)(w1,w2)=(0,w)。可以直观想象,因为LL函数有很多『突出的角』(二维情况下四个,多维情况下更多),J0J0与这些角接触的机率会远大于与LL其它部位接触的机率,而在这些角上,会有很多权值等于0,这就是为什么L1L1正则化可以产生稀疏模型,进而可以用于特征选择。
而正则化前面的系数αα,可以控制LL图形的大小。αα越小,LL的图形越大(上图中的黑色方框);αα越大,LL的图形就越小,可以小到黑色方框只超出原点范围一点点,这时最优点的值(w1,w2)=(0,w)(w1,w2)=(0,w)中的ww可以取到很小的值。
稀疏矩阵指的是很多元素为0,只有少数元素是非零值的矩阵,即得到的线性回归模型的大部分系数都是0. 通常机器学习中特征数量很多,例如文本处理时,如果将一个词组(term)作为一个特征,那么特征数量会达到上万个(bigram)。在预测或分类时,那么多特征显然难以选择,但是如果代入这些特征得到的模型是一个稀疏模型,表示只有少数特征对这个模型有贡献,绝大部分特征是没有贡献的,或者贡献微小(因为它们前面的系数是0或者是很小的值,即使去掉对模型也没有什么影响),此时我们就可以只关注系数是非零值的特征。这就是稀疏模型与特征选择的关系

类似,假设有如下带L2正则化的损失函数:

 

J=J0+α∑ww2(2)(2)J=J0+α∑ww2

 

同样可以画出他们在二维平面上的图形,如下:

二维平面下L2L2正则化的函数图形是个圆,与方形相比,被磨去了棱角。因此J0J0与LL相交时使得w1w1或w2w2等于零的机率小了许多,这就是为什么L2L2正则化不具有稀疏性的原因。

L2正则化和过拟合

拟合过程中通常都倾向于让权值尽可能小,最后构造一个所有参数都比较小的模型。因为一般认为参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。可以设想一下对于一个线性回归方程,若参数很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什么影响,专业一点的说法是『抗扰动能力强』。

注:L1L1 正则化的计算公式不可导,L2L2可导

 

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。