考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

取回式随机抽样为每一笔被挑选的数据记录,仍可以重复再被挑选。下列哪个算法会用到取回式随机抽样?
A. 袋装法(Bagging)
B. 提升法(Boosting)
C. 随机森林(Random Forest)
D. 以上皆是
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

取回式随机抽样(也称为有放回抽样)是指在抽样过程中,所选取的样本在每次抽取后会被放回原样本集中,因而可能会在后续的抽取中再次被选择。这种方法在某些机器学习的集成算法中得到了应用。让我们分析一下各个选项:

A: **袋装法 (Bagging)**
- 袋装法是一种并行集成学习方法。它通过对数据集进行多次有放回的随机抽样,生成多个不同的子数据集,每个子数据集用于训练一个模型。最终的结果通过对这些模型的结果进行平均或投票得到。因此,袋装法使用了取回式随机抽样。

B: **提升法 (Boosting)**
- 提升法是一种逐步基于前序模型优化错误的过程,常使用不放回抽样。通常情况下,它不会使用取回式随机抽样,因为每个模型的错误率会影响下一个模型的训练过程。

C: **随机森林 (Random Forest)**
- 随机森林是袋装法的一种扩展,除了使用有放回的随机抽样来生成多个决策树,还在每个节点进行分裂时随机选择特征。和袋装法一样,随机森林使用了取回式随机抽样。

D: **以上皆是**
- 基于以上分析,提升法(Boosting)通常不使用取回式随机抽样,所以D选项不正确。

因此,正确答案是:**A: 袋装法(Bagging) 和 C: 随机森林(Random Forest)**。这两个方法都使用了取回式随机抽样。