转载:什么是 Word2Vec?

本文转自(有删改) 雷锋网上的博文《一文详解 Word2vec 之 Skip-Gram 模型》,原博客地址请参见:https://www.leiphone.com/news/201706/PamWKpfRFEI42McI.html


1. 什么是 Word2Vec?

Word2Vec 是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。 那么它是如何帮助我们做自然语言处理呢?Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding 其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。

我们从直观角度上来理解一下,cat 这个单词和 kitten 属于语义上很相近的词,而 dog 和 kitten 则不是那么相近,iphone 这个单词和 kitten 的语义就差的更远了。通过对词汇表中单词进行这种数值表示方式的学习(也就是将单词转换为词向量),能够让我们基于这样的数值进行向量化的操作从而得到一些有趣的结论。比如说,如果我们对词向量 kitten、cat 以及 dog 执行这样的操作:kitten - cat + dog,那么最终得到的嵌入向量(embedded vector)将与 puppy 这个词向量十分相近。

2. 模型

Word2Vec 模型中,主要有 Skip-GramCBOW 两种训练模型,从直观上理解,Skip-Gram 是给定 input word 来预测上下文。而 CBOW 是给定上下文,来预测 input word。本篇文章仅讲解 Skip-Gram 模型。Skip-Gram模型的基础形式非常简单,为了更清楚地解释模型,我们先从最一般的基础模型来看 Word2Vec(下文中所有的 Word2Vec 都是指 Skip-Gram 模型)。

model

Word2Vec 模型实际上分为了两个部分:第一部分为建立模型,第二部分是通过模型获取嵌入词向量。 Word2Vec 的整个建模过程实际上与自编码器(auto-encoder)的思想很相似,即先基于训练数据构建一个神经网络,当这个模型训练好以后,我们并不会用这个训练好的模型处理新的任务,我们真正需要的是这个模型通过训练数据所学得的参数,例如隐层的权重矩阵——后面我们将会看到这些权重在 Word2Vec 中实际上就是我们试图去学习的 “word vectors”。基于训练数据建模的过程,我们给它一个名字叫 “Fake Task”,意味着建模并不是我们最终的目的。

3. The Fake Task

我们在上面提到,训练模型的真正目的是获得模型基于训练数据学得的隐层权重。为了得到这些权重,我们首先要构建一个完整的神经网络作为我们的 “Fake Task”,后面再返回来看通过 “Fake Task” 我们如何间接地得到这些词向量。

接下来我们来看看如何训练我们的神经网络。假如我们有一个句子,

The dog barked at the mailman.

  1. 首先我们选句子中间的一个词作为我们的输入词,例如我们选取 “dog” 作为 input word
  2. 有了 input word 以后,我们定义一个叫做 skip_window 的参数,它表示从当前 input word 的两边(左边和右边)选取词的数量。我们设置 skip_window = 2,表示我们在 input word 左右两侧各取 2 个词进入我们的窗口,最终窗口中的词(包括 input word 在内)就是 [“the”, “dog”,“barked”, “at”]。
  3. 我们定义另一个叫 num_skips 的参数,它代表着我们从整个窗口中选取多少个不同的词作为我们的 output word,当 skip_window = 2,num_skips = 2 时,我们将会得到两组 (input word, output word) 形式的训练数据,即 (“dog”,“barked”),(“dog”, “the”)。
  4. 神经网络基于这些训练数据将会输出一个概率分布,这个概率代表着我们的词典中的每个词是output word的可能性。这句话有点绕,我们来看个栗子。第 2-3 步里我们通过设置 skip_window 和num_skips` 参数获得了两组训练数据。假如我们先拿一组数据 (“dog”,“barked”) 来训练神经网络,那么模型通过学习这个训练样本,会告诉我们词汇表中每个单词是 “barked” 的概率大小。

模型的输出概率代表着到我们词典中每个词有多大可能性跟 input word 同时出现。举个栗子,如果我们向神经网络模型中输入一个单词 “Soviet”,那么最终模型的输出概率中,像 “Union”, “Russia” 这种相关词的概率将远高于像 “watermelon”,“kangaroo” 非相关词的概率。因为 “Union”,“Russia” 在文本中更大可能在 “Soviet” 的窗口中出现。我们将通过给神经网络输入文本中成对的单词来训练它完成上面所说的概率计算。下面的图中给出了一些我们的训练样本的例子。我们选定句子

The quick brown fox jumps over lazy dog.

设定我们的窗口大小为2(window_size = 2),也就是说我们仅选输入词前后各两个词和输入词进行组合。下图中,蓝色代表 input word,方框内代表位于窗口内的单词。

skip-gram

我们的模型将会从每对单词出现的次数中习得统计结果。例如,我们的神经网络可能会得到更多类似(“Soviet”,“Union”)这样的训练样本对,而对于(“Soviet”,“Sasquatch”)这样的组合却看到的很少。因此,当我们的模型完成训练后,给定一个单词 “Soviet” 作为输入,输出的结果中 “Union” 或者 “Russia” 要比 “Sasquatch” 被赋予更高的概率。

4. 模型细节

我们如何来表示这些单词呢?首先,我们都知道神经网络只能接受数值输入,我们不可能把一个单词字符串作为输入,因此我们得想个办法来表示这些单词。最常用的办法就是基于训练文档来构建我们自己的词汇表(vocabulary)再对单词进行 one-hot 编码。

假设从我们的训练文档中抽取出 10000 个唯一不重复的单词组成词汇表。我们对这 10000 个单词进行 one-hot 编码,得到的每个单词都是一个 10000 维的向量,向量每个维度的值只有 0 或者 1,假如单词 ants 在词汇表中的出现位置为第 3 个,那么 ants 的向量就是一个第三维度取值为 1,其他维都为 0 的 10000 维的向量

 ants = [0, 0, 1, 0, ..., 0] 

还是上面的例子,“The dog barked at the mailman”,那么我们基于这个句子,可以构建一个大小为5的词汇表(忽略大小写和标点符号):(“the”, “dog”, “barked”, “at”, “mailman”),我们对这个词汇表的单词进行编号 0-4,那么这 5 个单词的 one-hot 编码方式为

 the =  [1, 0, 0, 0, 0]
 dog = [0, 1, 0, 0, 0]
 barked = [0, 0, 1, 0, 0]
 at = [0, 0, 0, 1, 0]   
 mailman = [0, 0, 0, 0, 1]

模型的输入如果为一个 10000 维的向量,那么输出也是一个 10000 维度(词汇表的大小)的向量,它包含了 10000 个概率,每一个概率代表着当前词是输入样本中 output word 的概率大小。

下图是我们神经网络的结构:隐层没有使用任何激活函数,但是输出层使用了 softmax。我们基于成对的单词来对神经网络进行训练,训练样本是 ( input word, output word) 这样的单词对,input wordoutput word 都是 one-hot 编码的向量。最终模型的输出是一个概率分布。

5. 隐层

说完单词的编码和训练样本的选取,我们来看下我们的隐层。如果我们现在想用 300 个特征来表示一个单词(即每个词可以被表示为 300 维的向量)。那么隐层的权重矩阵应该为 10000 行,300 列(隐层有 300 个结点)。

看下面的图片,左右两张图分别从不同角度代表了输入层-隐层的权重矩阵。左图中每一列代表一个 10000 维的词向量和隐层单个神经元连接的权重向量。从右边的图来看,每一行实际上代表了每个单词的词向量。所以我们最终的目标就是学习这个隐层的权重矩阵。

上面我们提到,input wordoutput word 都会被我们进行 one-hot 编码。仔细想一下,我们的输入被 one-hot 编码以后大多数维度上都是 0(实际上仅有一个位置为 1),所以这个向量相当稀疏,那么会造成什么结果呢。如果我们将一个 1 x 10000 的向量和 10000 x 300 的矩阵相乘,它会消耗相当大的计算资源,为了高效计算,它仅仅会选择矩阵中对应的向量中维度值为 1 的索引行。

我们来看一下上图中的矩阵运算,左边分别是 1 x 55 x 3 的矩阵,结果应该是 1 x 3 的矩阵,按照矩阵乘法的规则,结果的第一行第一列元素为 0 x 17 + 0 x 23 + 0 x 4 + 1 x 10 + 0 x 11 = 10,同理可得其余两个元素为 12,19。如果 10000 个维度的矩阵采用这样的计算方式是十分低效的。

为了有效地进行计算,这种稀疏状态下不会进行矩阵乘法计算,可以看到矩阵的计算的结果实际上是矩阵对应的向量中值为 1 的索引,上面的例子中,左边向量中取值为 1 的对应维度为 3(下标从 0 开始),那么计算结果就是矩阵的第3行(下标从 0 开始)—— [10, 12, 19],这样模型中的隐层权重矩阵便成了一个 “查找表”(lookup table),进行矩阵计算时,直接去查输入向量中取值为1的维度下对应的那些权重值。隐层的输出就是每个输入单词的 “嵌入词向量”。

6. 输出层

经过神经网络隐层的计算,ants 这个词会从一个 1 x 10000 的向量变成 1 x 300 的向量,再被输入到输出层。输出层是一个 softmax 回归分类器,它的每个结点将会输出一个 0-1 之间的值(概率),这些所有输出层神经元结点的概率之和为 1。

下面是一个例子,训练样本为 (input word: “ants”, output word: “car”) 的计算示意图。

如果两个不同的单词有着非常相似的 “上下文”(也就是窗口单词很相似,比如 “Kitty climbed the tree” 和 “Cat climbed the tree”),那么通过我们的模型训练,“Kitty” 和 “Cat” 这两个单词的嵌入向量将非常相似。

发布了14 篇原创文章 · 获赞 29 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/chikily_yongfeng/article/details/89971338
今日推荐