考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。基于Boosting的集成学习,其代表算法不包括?
A. Adaboost
B. GBDT
C. XGBOOST
D. 随机森林
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

Adaboost、GBDT、XGBOOST都是基于boosting的集成学习,随机森林是基于bagging的集成学习

正确答案是:D: 随机森林

分析如下:

提升方法(Boosting)是一种集成学习技术,通过将多个弱分类器结合起来,形成一个强分类器,以减小偏差和提高预测性能。基于Boosting的集成学习的代表算法包括:

A: Adaboost(Adaptive Boosting):这是最早提出的Boosting算法之一,通过调整每个弱分类器的权重,逐步提高分类器的准确性。

B: GBDT(Gradient Boosting Decision Tree):又称梯度提升决策树,是一种通过逐步优化损失函数来构建多个决策树的Boosting方法。

C: XGBOOST(Extreme Gradient Boosting):这是GBDT的一种高效实现,具有更高的性能和更强的功能,如处理缺失值和并行计算等。

D: 随机森林(Random Forest):这是一种Bagging(Bootstrap Aggregating)方法,而不是Boosting方法。随机森林通过构建多个决策树,并通过投票机制来决定最终输出,主要是通过减少方差来提高模型的稳定性。

因此,随机森林并不属于基于Boosting的集成学习算法。