正确答案是:A: 组合(ensemble)
### 专业分析:
在机器学习和统计学中,通过聚集多个分类器的预测来提高分类准确率的技术被称为**集成学习(Ensemble Learning)**。这一技术的核心思想是结合多个模型的预测结果以获得比单个模型更好的性能。以下是一些常见的集成学习方法:
1. **Bagging(Bootstrap Aggregating)**:
- 通过对数据集进行有放回的随机采样,训练多个模型(如决策树),然后对这些模型的结果进行平均或投票。
- 示例:随机森林(Random Forest)。
2. **Boosting**:
- 通过加权的方法逐步训练一系列弱分类器,每个新的分类器力图纠正其前一序列分类器的错误。
- 示例:AdaBoost,Gradient Boosting。
3. **Stacking**:
- 使用多个模型的预测作为输入,训练一个新的模型进行最终预测。
- 这是一种元学习方法。
4. **Voting**:
- 使用多种不同的模型,对每个模型的预测进行投票,选择票数最多的结果为最终预测。
### 为什么选择 A: 组合(ensemble):
- 组合(ensemble) 是一个通用术语,涵盖了多种集成学习方法如 Bagging、Boosting 和 Stacking。
- 聚集(aggregate)、合并(combination)、投票(voting) 虽然在某些情况下也可以描述集成学习的某些方面,但它们通常指的是集成学习中的具体技术或步骤,而不是整个技术范畴。