本题考察不平衡分类与代价敏感学习(Cost-Sensitive Learning)。
• B选项(正确):XGBoost中的 scale_pos_weight 参数正是为了解决类别不平衡设计的。将其设置为 负样本数/正样本数(本题中约为100),可以显着增加模型对正类(中断)的惩罚力度,迫使模型更关注少数类,直接对应“宁可误报不可漏报”的业务需求。
• A选项:分类问题用MSE效果通常不如LogLoss,且MSE不能解决不平衡问题。
• C选项:Focal Loss的核心是 \gamma > 0(通常取2),用于降低简单样本的权重。如果 \gamma=0,Focal Loss退化为标准的Cross Entropy Loss,失去了挖掘难分样本的能力。
• D选项:L1正则化是用于特征选择的,无法解决样本标签不平衡的问题。