考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。基于Boosting的集成学习,其代表算法不包括?
A. Adaboost
B. GBDT
C. XGBOOST
D. 随机森林
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

Adaboost、GBDT、XGBOOST都是基于boosting的集成学习,随机森林是基于bagging的集成学习

正确答案是D: 随机森林。

分析如下:

1. **Adaboost**:Adaboost(Adaptive Boosting)是一种提升方法,通过组合多个弱分类器来形成一个强分类器。它是最早提出的提升方法之一。

2. **GBDT**:GBDT(Gradient Boosting Decision Tree,梯度提升决策树)是一种基于提升方法的集成学习算法,通过逐步加法模型来优化目标函数。

3. **XGBOOST**:XGBoost(Extreme Gradient Boosting)是GBDT的改进版本,具有更高效的计算能力和更强的正则化能力。

4. **随机森林**:随机森林(Random Forest)是一种集成学习方法,但它并不属于提升方法。随机森林是通过构建多个决策树并取其多数投票结果来进行分类,而不是逐步提升模型性能。

提升方法(Boosting)主要是通过调整模型的权重来减少偏差,而随机森林则是通过随机选择特征和数据子集来减少过拟合。因此,随机森林不属于基于Boosting的集成学习算法。