考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

传统的统计学习理论认为,随着模型复杂度增加,模型会先欠拟合,然后达到最优,最后过拟合(测试误差呈 U 型曲线)。然而,在现代机器学习实践中,你发现当神经网络的参数量远超样本量(Over-parameterized)时,继续增加模型大小或训练时间,测试误差反而会进一步下降。这种违反经典回归直觉的现象被称为:
A. 梯度消失(Vanishing Gradient)
B. 双重下降(Double Descent)
C. 正则化(Regularization)
D. 维度灾难(Curse of Dimensionality)
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

• 经典回归视角:模型太复杂(参数太多)会导致方差过大,测试集表现变差(U型曲线右侧)。 • 深度学习视角:在参数量极大的过参数化区域(Interpolation Regime),模型能够“记住”所有训练数据(训练误差为0),但令人惊讶的是,其泛化能力往往依然很好,甚至比“最优容量”的模型更好。 • B选项正确:这种测试误差先下降、再上升(经典过拟合)、当模型规模进一步增大越过“插值阈值”后再次下降的现象,被称为“双重下降(Double Descent)”。这是连接经典统计回归与现代深度学习泛化理论的关键概念。