考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

下列何种集成的方法,会重复抽取训练数据集中的数据,且每笔被抽中的概率始终保持一样?
A. 袋装法(Bagging)
B. 提升法(Boosting)
C. 随机森林(Random Forest)
D. 以上皆是
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

正确答案是:A: 袋装法(Bagging)

### 专业分析:

1. **袋装法(Bagging)**:
- Bagging是Bootstrap Aggregating的简称,是一种并行集成学习方法。
- 它通过有放回的方式从训练数据集中抽取样本来训练多个基模型。由于是有放回抽样,同一个样本可能会在不同的数据子集中出现。
- 每个基模型独立训练,最后的结果通过平均(回归问题)或投票(分类问题)得到。

2. **随机森林(Random Forest)**:
- 随机森林是Bagging的一个拓展应用,主要用于决策树分类器。
- 它也采用了有放回的抽样方法来生成每个决策树的训练集,因此本质上是使用了Bagging方法。
- 在训练每棵树的过程中,还会随机选择特征进行分裂,增加模型的多样性。

3. **提升法(Boosting)**:
- Boosting是一种串行集成学习方法,通过逐步调整前一阶段模型的错误来训练下一个模型。
- 每一轮,根据前一轮模型的表现来调整样本的权重,使得模型更多关注之前错误分类的样本。
- 它没有使用有放回抽样,而是在调整样本权重的基础上重训练模型。

### 结论
- **袋装法(Bagging)和随机森林**都涉及到重复抽取样本的过程,且每笔被抽中的概率在每次抽样时保持一致(1/N,N为样本总数),因为它们使用了有放回的抽样机制。
- **提升法(Boosting)**则不使用有放回抽样,而是通过权重调整来影响样本的选择。

因此,根据题意,正确答案是A: 袋装法(Bagging)。