考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

某医疗影像诊断团队正在开发一个肺结节检测模型。由于标注数据获取极难,且不同医生的标注标准存在主观差异(即数据存在由于标注不一致带来的高Label Noise)。初步训练的深度决策树模型表现出极高的方差(Variance),即模型在不同训练子集上表现波动极大。 为了缓解这一问题,团队决定采用Bagging集成策略。从统计学习理论的角度,为什么Bagging在这种高噪声、易过拟合的场景下比Boosting更合适?
A. Bagging通过串行训练,能够逐步纠正前一个模型的错误,从而专注于难分类样本
B. Bagging能够显著降低偏差(Bias),使得模型能够拟合更复杂的决策边界
C. Bagging通过对样本和特征的随机采样及平均聚合,能够显著降低方差,平滑噪声带来的影响
D. Bagging利用Out-of-Bag (袋外) 样本在训练过程中动态调整样本权重,能够自动识别并降低高噪声样本的训练权重,从而比Boosting更鲁棒
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

• Bagging(如随机森林): 主要作用是降低方差(Variance)。通过Bootstrap采样和聚合(Averaging),它平滑了单个模型对噪声的过度敏感,特别适合高方差、易过拟合的基模型(如深层决策树)。 • Boosting(如GBDT): 主要作用是降低偏差(Bias)。它通过拟合残差不断逼近真实分布,但在高噪声数据中,Boosting往往会试图去拟合噪声(因为噪声也是残差的一部分),导致过拟合。 因此,在数据噪声大、模型方差大的场景下,Bagging优于Boosting。 • D 选项“动态调整权重”是Boosting(如Adaboost)的核心特征,而不是Bagging的特征。