首页 > 编程知识 正文

l1损失和l2损失,l1正则化不可导

时间:2023-05-03 13:55:21 阅读:29657 作者:2104

L1、L2正则化一.过拟合、欠拟合二. L1、L2正则化2.1 L1正则化2.2 L2正则化三.总结http://www.Sina.com/https://www.bilibili.com/video/com

一.关于过拟合、欠拟合

过拟合、欠拟合问题是机器学习中非常常见的问题,特别是对于深度神经网络来说,常出现过拟合问题。

拟合不足:模型无法有效地拟合数据集,对现有数据集的学习不够。 解决方案:增加输入特征项增加网络参数减少正则化参数的过拟合:模型对当前数据进行了适当拟合,但对新数据难以做出准确判断,模型泛化能力弱。 (参考资料:)解决方案:数据清洗增大数据集采用正则化增大正则化参数2.L1、L2正则化是在损耗函数中引入模型复杂度指标。 通过对权重进行加权,减弱训练数据的噪声。 如下式所示。

LOSS=LOSS(y和y_ ) REGULARIZER * loss(w ) w ) ) ) )

loss(y和y_ )表示原始损耗函数REGULARIZER为权重w相对于总loss的比例,即归一化权重loss ) w表示需要归一化的参数,即权重(2.1 L1归一化L1归一化为权重的http://www.Sina (L1范数) )。

2.2 L2正则化L2正则化是加权的拟合曲线不平滑。 (第二范数) )。

3.L1正则化归纳起来很多参数为0,该方法可以通过稀疏参数,即减少参数数量来降低复杂度。 L2正则化使参数接近0但不是0,该方法可以通过减小参数值的大小来降低复杂度。绝对值求和

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。