正确答案是:B。
分析:
A: 正确。LSTM(Long Short-Term Memory)通过引入输入门、遗忘门和输出门来控制信息的流动,从而有效解决了RNN(Recurrent Neural Network)中常见的梯度消失和梯度爆炸问题。这些门允许LSTM在训练过程中选择性地记住或忘记信息。
B: 错误。LSTM中门的开关程度是由门控机制(通过激活函数如sigmoid)决定的,而不是直接由信息的权重决定。门控机制通过学习参数来控制信息的流动,因此在训练过程中,LSTM能够学习到哪些信息是重要的,而不是直接由信息的权重决定。
C: 正确。与传统的RNN相比,LSTM引入了更多的参数(例如,门的权重矩阵),因此通常需要更长的训练时间。不过,这些额外的参数也使得LSTM更强大,能够捕获更复杂的时间依赖关系。
D: 正确。门限递归单元(GRU)是一种LSTM的变体,它将遗忘门和输入门合并成一个更新门,简化了模型结构,同时保留了大部分LSTM的性能优势。GRU通常具有较少的参数,因此可能比LSTM更快地训练。