为了得到成本函数(cost function )训练逻辑回归模型的参数,需要训练成本函数得到参数的成本函数。
在回归问题中,多通过代价函数求出最优解,常用平方误差代价函数。
常见成本函数(1)二次成本函数(quadratic cost ) ) ) ) ) )。
(2)交叉熵的成本函数(cross-entropy ) ) ) )。
(3)对数似然成本函数(log-likelihood cost ) () ) ) ) )。
损耗函数(loss function )损耗函数(loss function )也称为误差函数,是一种非负实数函数,测量算法的执行情况并估计模型的预测值与真值之间的不匹配程度,通常为$l(y,f () 损耗函数越小,模型的鲁棒性越好。 损失函数是经验风险函数的核心部分,也是结构风险函数的重要组成部分。
机器学习通过不断求解算法中目标函数的优化,最终得到期望的结果。 在分类和回归问题中,通常使用损失函数或成本函数作为目标函数。 损耗函数用于评估预测值与真实值的差异程度。 通常,损耗函数越好,模型的性能也越好。 损失函数可分为经验风险损失函数和结构风险损失函数。 经验风险损失函数是预测结果与实际结果的差,结构风险损失函数是经验风险损失函数加上正规项。
常用损耗函数(1)0-1损耗函数
)2)绝对值损失函数
(3)平方损失函数
)4)对数损失函数.常见的逻辑回归使用对数损失函数。 由逻辑回归得到的经验风险函数是将负最小化的似然函数,从损失函数的观点来看,是对数损失函数。 形式上等价于二分类的交叉熵损失函数。
(5)指数损失函数。 AdaBoost将指数损失函数作为损失函数。
(6) Hinge损失函数。 主要用于支持向量机(SVM )。