考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

某短视频平台需要优化推荐系统的用户留存模型,业务要求同时提升30日留存率(主要目标,权重0.7)和单日观看时长(次要目标,权重0.3)。团队初步计划使用 XGBoost 作为基础模型,但标准实现只支持单目标优化。以下哪些方法能有效实现这种多目标优化,且保持算法效率?
A. 训练两个独立模型分别预测留存率和观看时长,线上预测时将结果加权融合(权重0.7/0.3)
B. 构建自定义损失函数,在XGBoost中实现加权组合:0.7LogLoss(留存) + 0.3MSE(时长)
C. 使用LightGBM的多目标学习功能,直接指定多个目标及其权重
D. 将观看时长作为样本权重输入XGBoost,留存率作为预测目标,高观看时长样本获得更高权重
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

B选项正确,XGBoost支持自定义损失函数,通过加权组合两个目标的损失,可在单模型中实现多目标优化,保持预测一致性。C选项正确,LightGBM原生支持多目标学习(objective='multiclass'或自定义多目标),比组合单目标模型更高效且一致。A选项错误,独立训练两个模型会忽略目标间的相关性,加权融合可能导致次优解,且增加部署复杂度。D选项错误,将一个目标作为权重处理改变了样本分布,不能真正平衡两个目标,可能导致偏差。多目标优化需在损失函数层面整合,而非后处理融合或简单加权。LightGBM的多目标支持或自定义损失函数是解决此类问题的正确方法。