D选项说的是skip-gram
关于Word2Vec中的CBOW(连续词袋模型),以下说法错误的是:
D: 模型的目标是最大化用当前的词预测上下文的词的生成概率
### 专业分析:
1. **CBOW模型的定义**:
- CBOW模型的目标是通过上下文中的词来预测当前词。具体来说,模型会根据给定的上下文词(前后若干个词)来预测中心词(当前词)。
2. **选项分析**:
- **A: 属于浅层神经网络**:CBOW模型确实属于浅层神经网络,因为它通常只包含一个隐藏层。
- **B: 属于词嵌入模型**:CBOW模型是Word2Vec的一部分,Word2Vec本身就是一种词嵌入模型。
- **C: 模型的目标是最大化通过上下文的词预测当前词生成概率**:这正是CBOW模型的核心目标,通过上下文词来预测当前词。
- **D: 模型的目标是最大化用当前的词预测上下文的词的生成概率**:这是对Skip-gram模型的描述,Skip-gram模型的目标是通过当前词来预测上下文的词。
因此,正确答案是D。