考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

下面关于LSTM的描述中,错误的是:
A. LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B. LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C. 与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D. 门限递归单元(GRU)将遗忘门和输入门合并成单个更新门
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

正确答案是:B。

分析:

A: 正确。LSTM(Long Short-Term Memory)通过引入输入门、遗忘门和输出门来控制信息的流动,从而有效解决了RNN(Recurrent Neural Network)中常见的梯度消失和梯度爆炸问题。这些门允许LSTM在训练过程中选择性地记住或忘记信息。

B: 错误。LSTM中门的开关程度是由门控机制(通过激活函数如sigmoid)决定的,而不是直接由信息的权重决定。门控机制通过学习参数来控制信息的流动,因此在训练过程中,LSTM能够学习到哪些信息是重要的,而不是直接由信息的权重决定。

C: 正确。与传统的RNN相比,LSTM引入了更多的参数(例如,门的权重矩阵),因此通常需要更长的训练时间。不过,这些额外的参数也使得LSTM更强大,能够捕获更复杂的时间依赖关系。

D: 正确。门限递归单元(GRU)是一种LSTM的变体,它将遗忘门和输入门合并成一个更新门,简化了模型结构,同时保留了大部分LSTM的性能优势。GRU通常具有较少的参数,因此可能比LSTM更快地训练。