首页 > 编程知识 正文

随机森林算法实际应用,随机森林分类原理

时间:2023-05-04 20:44:07 阅读:24353 作者:978

一.背景

机器学习是一门多领域交叉学科,近年来随着机器学习的发展,各种机器学习算法的应用范围不断扩大。 在系统结构的研究中,也越来越多地使用相关算法来实现研究目标。 与传统的完全利用基于硬件的结构、公式、计算等实现的分析模型相比,基于机器学习算法的分析模型更具通用性,易于部署和迁移,因此更受欢迎,例如近年来的ATC、MICRO等会议中机器学习算法

机器学习算法多种多样,其中线性回归、随机森林等可应用于系统结构研究的算法也不少,各有特点。 本文简要介绍随机森林算法的相关概念,以供参考。

二、综合学习巴格宁原理

随机森林属于综合学习的范畴,综合学习是指将多个弱监视模型组合起来得到一个强监视模型,即使一个弱模型进行了错误的预测,其他弱模型也能够纠正错误。 其中Bagging的特征是,各弱学习器之间没有依存关系,可以进行并行拟合。

下图是整合Bagging进行学习的原理图。

Bagging采用返回的随机采样,即从训练集中随机抽取一定数量的样本,但每次抽取一个样本时都会返回样本。 也就是说,以前采集的样品在返回后也有可能继续采集。 利用t个样本集训练t个弱学习器,利用耦合策略生成强学习器。 其中,分类问题的结合策略可以使用投票法。 "少数服从多数",选择得票数最多类别作为最终预测; 回归问题的结合策略泽采用平均值法:将结果的算术平均值作为最终预测结果。

三.决策树

随机森林基于Bagging实现,使用弱学习器作为决策树。

决策树是一种有监督的分类模型,本质上是选择能带来最大信息增益的特征值进行树的分割。 决策树的节点分割过程类似于递归过程,从信息增益中找出最重要的特征,按照其特征进行分割,子树上的数据节点也用同样的方法进行分割直到特征消失,或者该节点上的所有数据达到相同的标签。

下图显示了决策树的一个简单示例。

如果不限制决策树的最大深度,则使用单个决策树可能会发生拟合。 由于没有最大深度限制,示例中的所有节点都被“完全分类”,从而为训练集提供非常高的分类精度,但无法成功泛化到新数据集,导致测试集中的性能下降。 因此,在实际应用中,需要选择限制决策树的最大深度,还是选择另一种备选方案,即组合多个单个决策树以形成随机森林。

四.随机森林

4.1随机森林原理

随机森林是基于bagging和决策树实现的,在两者之上进行了改进。 随机森林中使用的弱学习器是决策树,各决策树之间没有依存关系,可以并行生成。 常规决策树从节点上所有n个样本特征中选择一个最优特征进行决策树分割,而随机森林选择节点上特征的一部分(特征的数量越少,所选择的特征的数量越少,模型越稳健)。 然后,从随机选择的特征中选择一个最佳特征进行树的分割(双重选择),可以进一步提高模型的泛化能力。

森林的简单流程如下。

输入

样本集

弱分类器反复次数t

输出功率

强分类器

1 )对于t=1,2 .T:

a )对训练集进行第t次随机采样,共采集m次,得到包含m个样本的样本集

style="margin-left:42pt;">b) 用不同的采样集分别训练决策树模型,在训练决策树模型的节点的时候,在节点上所有的样本特征中选择部分样本特征,然后在部分特征中选择一个最优的特征分割决策树。

2) 如果是分类算法预测,则T个弱学习器投出最多票数的类别或者类别之一为最终类别。如果是回归算法,T个弱学习器得到的回归结果进行算术平均得到的值为最终的模型输出。

 

4.2 影响随机森林性能的参数

随机森林模型的优点之一就是其基本不需要调参,但是为了应对在实际情况中遇到难以解决的问题,有必要对影响模型性能的因素有一定的了解。

影响随机森林模型性能的因素主要有三种,分别为:

决策树的个数:因为存在随机因素,所以决策树的个数越多预测结果越稳定,因此在允许范围之内,决策树的数目越大越好。递归次数(即决策树的深度):一般来说,数据少或者特征少的时候可以不必限制此值的大小。如果模型样本量多,特征也多的情况下,则需要在一定程度上限制这个最大深度,具体的取值取决于数据的分布。深度越小,计算量越小,速度越快。特征属性的个数:减小特征属性的个数不仅会提升算法速度,也有可能降低测试误差;通常使用的值可以是全部特征值个数的开方,或者取其对数值,也可以逐一尝试特征属性个数的值,直到找到比较理想的数字。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。