Posts Word2vec
Post
Cancel

Word2vec

什么是word2vec嵌入?

word2vec 模型是一个仅仅包括一层隐含层的MLP网络。

  • word2vec的任务是预测在一个句子中的context中与当前word近邻的words.
  • 但是,word2vec模型的目标函数与该任务没有任何关系。所有我们想要得到的是隐含层学习到的权重矩阵,这个权重矩阵就是我们用来作为词嵌入(word embeddings)。 这其实是一种在非监督学习中常见的trick。比如训练自动编码器的过程是在隐藏层压缩降维输入向量,并在输出层将其解压缩回原始向量。训练完成后,剥离并去除输出层(去除解压步骤),只使用隐藏层–这是在没有标记训练数据的情况下学习良好低维特征的技巧。

word2vec 模型包括两种变种:Continuous Bag of WordsSkip-Gram model。 我们主要说明Skip-Gram model.

word2vec model architecture

This post is licensed under CC BY 4.0

组学之工具-bwa

Deepwalk

Comments powered by Disqus.