这道题目涉及的是梯度下降算法的优缺点分析。我们需要判断哪个选项的描述不正确,并提供详细的分析。
### 各选项分析:
| 选项 | 描述 | 分析 |
|------|------|------|
| A | 批梯度下降会获得全局最优解,缺点是计算量会很大 | **不完全正确**:批梯度下降不是总能获得全局最优解,特别是在非凸损失函数上,它可能会收敛到局部最优解。计算量大是因为计算所有样本的梯度。 |
| B | 梯度下降法有可能会收敛到局部最优解中 | **正确**:梯度下降法尤其是在处理非凸问题时,确实有可能会收敛到局部最优解。 |
| C | 对于模型来讲,应该选择一个固定的学习率 | **不完全正确**:固定学习率在某些情况下可以使用,但自适应学习率(如Adam, RMSProp)通常更有效,因为它可以根据需要调整学习率以提高收敛速度和稳定性。 |
| D | 样本量极大时,每次更新权重需要耗费大量的算力,这时可采取随机梯度下降法 | **正确**:随机梯度下降(SGD)在样本量大时更高效,因为它使用一个样本或小批量进行更新,从而减少了每次更新的计算量。 |
### 正确答案
根据分析,选项 A 和 C 的描述不完全正确,因此可能会误导,其中选项 C 是最明显不准确的,因为现代实践中通常使用自适应学习率,而不是固定学习率。所以**描述不正确的选项是 C**。