考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

下列哪种集成方法,会重复抽取训练数据集中的数据,且每笔被抽中的概率始终保持一样?
A. 袋装法(Bagging)
B. 提升法(Boosting)
C. 堆叠法(Stacking)
D. 以上皆是
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

正确答案是A: 袋装法(Bagging)。

专业分析:
袋装法(Bagging,Bootstrap Aggregating)是一种并行集成方法,它通过重复抽取训练数据集中的数据来生成多个不同的子数据集,每个子数据集都是通过有放回抽样(即每次抽样后数据会被放回原数据集)得到的。这意味着每笔数据被抽中的概率始终保持一样。然后,Bagging方法会在这些不同的子数据集上训练多个模型,最后通过对这些模型的预测结果进行平均或投票来得到最终的预测结果。

提升法(Boosting)是一种序列化的集成方法,它通过逐步调整前一个模型的错误来训练一系列模型。每个新模型都是基于前一个模型的错误来进行训练的,因此每笔数据的抽取概率并不是始终保持一样的。

堆叠法(Stacking)是一种将多个不同模型的预测结果作为输入,再训练一个次级模型(通常是元学习器)来进行最终预测的方法。它不涉及重复抽取训练数据集中的数据。

因此,只有袋装法(Bagging)符合题目中所描述的特性。