考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

以下哪个是神经网络中常用的激活函数?(多选)
A. Sigmoid函数
B. ReLU函数
C. tanh双曲正弦函数
D. MSE函数
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

正确答案是A: Sigmoid函数, B: ReLU函数, 和C: tanh双曲正弦函数。

分析:

A: Sigmoid函数是一种常用的激活函数,尤其是在早期的神经网络中。它将输入值压缩到0到1之间,使其适合用于输出概率的场景。然而,Sigmoid函数存在梯度消失问题,在深层网络中效果不佳。

B: ReLU函数(Rectified Linear Unit)是目前最流行的激活函数之一,尤其是在深度神经网络中。ReLU函数的优点是计算简单,并且能够有效缓解梯度消失问题。然而,它在某些情况下可能导致神经元“死亡”,即输出恒为零。

C: tanh双曲正弦函数也是一种常用的激活函数。与Sigmoid函数类似,tanh函数将输入值压缩到-1到1之间。相较于Sigmoid函数,tanh函数的输出均值为0,因此在某些情况下可以加速收敛。不过,tanh函数同样存在梯度消失问题。

D: MSE函数(Mean Squared Error,均方误差)不是激活函数,而是一种常用的损失函数,主要用于回归问题中衡量模型预测值与真实值之间的差异。

综上所述,A、B和C是神经网络中常用的激活函数,而D是损失函数。