考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

以下说法中正确的是()
A. SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性
B. 在adaboost算法中,所有被分错样本的权重更新比例相同
C. boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重
D. 给定n个数据点,如果其中一半用于训练,一半用户测试,则训练误差和测试误差之间的差别会随着n的增加而减少
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

在分析这道多选题之前,我们先逐一分析各个选项的正确性。

### A: SVM对噪声(如来自其他分布的噪声样本)具备鲁棒性
- **分析**:支持向量机(SVM)的目标是找到一个最优的超平面来最大化类间的间隔。虽然SVM在一定程度上对噪声具有鲁棒性,特别是在使用软间隔和合适的核函数时,它并不是对所有类型的噪声都具备鲁棒性。对于一些极端噪声,SVM仍然可能受到影响。
- **结论**:此选项不完全正确。

### B: 在adaboost算法中,所有被分错样本的权重更新比例相同
- **分析**:在Adaboost算法中,分错的样本的权重会增加,分对的样本的权重会减小。但权重更新的比例是根据误分类率计算的,因此被分错样本的权重更新比例并不相同,取决于误分类率。
- **结论**:此选项错误。

### C: boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重
- **分析**:
- **Bagging**:通过对数据集进行自助采样(bootstrap sampling),训练多个分类器,并通过简单投票或平均方式结合结果。各个分类器平等对待,没有权重区别。
- **Boosting**:通过逐步训练弱分类器序列,每个分类器根据前一序列的错误率来调整样本权重,从而影响最终的投票。
- **结论**:此选项描述不准确。Bagging与Boosting的确都是组合分类器的方法,但并非都是基于单个分类器的正确率确定权重。

### D: 给定n个数据点,如果其中一半用于训练,一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减少
- **分析**:在样本数量n增加的情况下,即使固定比例用于训练和测试,模型一般能更好地学习到数据的特征,从而训练误差和测试误差的差异减小。这是统计学习中的一个常见结论,因为更大的样本量能够提供更充分的信息以提升模型的泛化能力。
- **结论**:此选项正确。

### 正确答案
综上分析,只有 **D** 是正确的。