正确答案是:B: 网络层数越多,学习率可设置偏大,否则容易引起梯度消失。
分析:
A: 网中网(NIN)结构通过使用全连接的多层感知机来代替传统的卷积层,这种方法可以提升模型的表达能力,但通常会导致计算量增加。这个说法是正确的。
B: 网络层数越多,学习率通常需要设置得更小,而不是更大。原因是深层网络容易出现梯度消失或梯度爆炸的问题,较大的学习率会加剧这些问题。因此,这个说法是错误的。
C: VGG网络使用较小的卷积核(如3x3),这在一定程度上起到了隐式规则化的作用,帮助网络更快地收敛。这个说法是正确的。
D: Bagging(Bootstrap Aggregating)方法中,各个子模型的训练集是通过自助采样法生成的,彼此独立,因此可以并行计算。而Boosting方法中,每个模型的训练集是基于前一个模型的结果进行调整的,因此不能并行计算。这个说法是正确的。
因此,B选项是错误的。