B选项正确,XGBoost支持自定义损失函数,通过加权组合两个目标的损失,可在单模型中实现多目标优化,保持预测一致性。C选项正确,LightGBM原生支持多目标学习(objective='multiclass'或自定义多目标),比组合单目标模型更高效且一致。A选项错误,独立训练两个模型会忽略目标间的相关性,加权融合可能导致次优解,且增加部署复杂度。D选项错误,将一个目标作为权重处理改变了样本分布,不能真正平衡两个目标,可能导致偏差。多目标优化需在损失函数层面整合,而非后处理融合或简单加权。LightGBM的多目标支持或自定义损失函数是解决此类问题的正确方法。