正确答案是A: Sigmoid函数, B: ReLU函数, 和C: tanh双曲正弦函数。
分析:
A: Sigmoid函数是一种常用的激活函数,尤其是在早期的神经网络中。它将输入值压缩到0到1之间,使其适合用于输出概率的场景。然而,Sigmoid函数存在梯度消失问题,在深层网络中效果不佳。
B: ReLU函数(Rectified Linear Unit)是目前最流行的激活函数之一,尤其是在深度神经网络中。ReLU函数的优点是计算简单,并且能够有效缓解梯度消失问题。然而,它在某些情况下可能导致神经元“死亡”,即输出恒为零。
C: tanh双曲正弦函数也是一种常用的激活函数。与Sigmoid函数类似,tanh函数将输入值压缩到-1到1之间。相较于Sigmoid函数,tanh函数的输出均值为0,因此在某些情况下可以加速收敛。不过,tanh函数同样存在梯度消失问题。
D: MSE函数(Mean Squared Error,均方误差)不是激活函数,而是一种常用的损失函数,主要用于回归问题中衡量模型预测值与真实值之间的差异。
综上所述,A、B和C是神经网络中常用的激活函数,而D是损失函数。