考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

关于深度学习模型训练,以下说法错误的是:
A. 网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
B. 网络层数越多,学习率可设置偏大,否则容易引起梯度消失
C. VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的规则化的作用
D. Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

正确答案是:B: 网络层数越多,学习率可设置偏大,否则容易引起梯度消失。

分析:

A: 网中网(NIN)结构通过使用全连接的多层感知机来代替传统的卷积层,这种方法可以提升模型的表达能力,但通常会导致计算量增加。这个说法是正确的。

B: 网络层数越多,学习率通常需要设置得更小,而不是更大。原因是深层网络容易出现梯度消失或梯度爆炸的问题,较大的学习率会加剧这些问题。因此,这个说法是错误的。

C: VGG网络使用较小的卷积核(如3x3),这在一定程度上起到了隐式规则化的作用,帮助网络更快地收敛。这个说法是正确的。

D: Bagging(Bootstrap Aggregating)方法中,各个子模型的训练集是通过自助采样法生成的,彼此独立,因此可以并行计算。而Boosting方法中,每个模型的训练集是基于前一个模型的结果进行调整的,因此不能并行计算。这个说法是正确的。

因此,B选项是错误的。