• Bagging(如随机森林): 主要作用是降低方差(Variance)。通过Bootstrap采样和聚合(Averaging),它平滑了单个模型对噪声的过度敏感,特别适合高方差、易过拟合的基模型(如深层决策树)。
• Boosting(如GBDT): 主要作用是降低偏差(Bias)。它通过拟合残差不断逼近真实分布,但在高噪声数据中,Boosting往往会试图去拟合噪声(因为噪声也是残差的一部分),导致过拟合。
因此,在数据噪声大、模型方差大的场景下,Bagging优于Boosting。
• D 选项“动态调整权重”是Boosting(如Adaboost)的核心特征,而不是Bagging的特征。