首页 > 其他分享 >word2vec数学推导过程

word2vec数学推导过程

时间:2023-01-18 10:36:45浏览次数:68  
标签:word2vec 推导 Skip Continuous Bag 数学 gram Words


​Welcome To My Blog​

word2vec包含两种框架,一种是CBOW(Continuous Bag-of-Words Model),另一种是Skip-gram(Continuous Skip-gram Model),如下图所示。这两种模型的任务是:进行词的预测,CBOW是预测P(w|context(w)),Skip-gram是预测P(context(w)|w)。当整个词典中所有词的预测任务整体达到最优时,此时的词向量便是我们想要的结果。

word2vec数学推导过程_Word


word2vec有两种计算方式专门提升训练速度,分别是:Hierarchical Softmax 和 Negative Sampling。

本篇文章只写出有关模型的数学推导过程,其它细节可参考peghoty的​​word2vec 中的数学​​,我也是根据这篇文章学习的

Hierarchical Softmax with Continuous Bag-of-Words Model

word2vec数学推导过程_Soft_02

Hierarchical Softmax with Continuous Skip-gram Model

word2vec数学推导过程_ci_03

Negative Sampling with Continuous Bag-of-Words Model

word2vec数学推导过程_word2vec_04

Negative Sampling with Continuous Skip-gram Model

word2vec数学推导过程_Soft_05


参考

Tomas Mikolov, Efficient Estimation of Word Representations in Vector Space

peghoty, ​​word2vec 中的数学​​


标签:word2vec,推导,Skip,Continuous,Bag,数学,gram,Words
From: https://blog.51cto.com/u_2420922/6019028

相关文章