考试报名
考试报名
考试内容
考试大纲
在线客服
返回顶部

备考刷题,请到

CDA认证小程序

Word2vec,是一群用来产生词向量的相关模型,用来训练以重新建构语言学之词文本。Word2Vec包含哪两种模型?
A. CBOW模型和Skip-Gram模型
B. Bag-of-Words和GloVe模型
C. LSA模型和CBOW模型
D. GloVe模型和CBOW模型
上一题
下一题
收藏
点赞
评论
题目解析
题目评论(0)

Word2Vec 是Google在2013年开源的一款词向量化的高效工具,主要包含两个模型: - 连续词袋模型(continuous bag of words,简称CBOW) - 跳字模型(skip-gram)

正确答案是:A: CBOW模型和Skip-Gram模型。

专业分析:

Word2Vec 是一种用于生成词向量的技术,它通过神经网络模型从大规模文本数据中学习词的分布式表示。Word2Vec 主要包含两种模型:

1. **CBOW模型(Continuous Bag of Words)**:这种模型通过上下文词来预测中心词。也就是说,CBOW 模型会基于给定的上下文词(周围的词)来预测当前词。这种方法在处理小数据集时表现较好,并且训练速度较快。

2. **Skip-Gram模型**:这种模型与 CBOW 相反,它通过当前词来预测上下文词。Skip-Gram 模型更适合处理大数据集,并且在捕捉词与词之间的关系方面表现更优。

这两种模型都是通过神经网络进行训练的,最终生成的词向量可以很好地捕捉词语之间的语义关系和相似性。与其他选项相比,只有 CBOW 和 Skip-Gram 是 Word2Vec 的核心模型。