• 经典回归视角:模型太复杂(参数太多)会导致方差过大,测试集表现变差(U型曲线右侧)。
• 深度学习视角:在参数量极大的过参数化区域(Interpolation Regime),模型能够“记住”所有训练数据(训练误差为0),但令人惊讶的是,其泛化能力往往依然很好,甚至比“最优容量”的模型更好。
• B选项正确:这种测试误差先下降、再上升(经典过拟合)、当模型规模进一步增大越过“插值阈值”后再次下降的现象,被称为“双重下降(Double Descent)”。这是连接经典统计回归与现代深度学习泛化理论的关键概念。