DeepWalk

一.引言

  网络嵌入是指用 N L P NLP 中的思想用在网络上,把网络节点表示为向量,以社交网络为例,网络嵌入就是将网络中的点用一个低维的向量表示,并且这些向量要能反应原先网络的某些特性,比如如果在原网络中两个点的结构类似,那么这两个点表示成的向量也应该类似。
   D e e p W a l k DeepWalk 的输入是一张图或者网络,输出为网络中顶点的向量表示。 D e e p W a l k DeepWalk 通过截断随机游走( t r u n c a t e d   r a n d o m   w a l k truncated \ random\ walk )学习出一个网络的社会表示( s o c i a l   r e p r e s e n t a t i o n social \ representation ),在网络标注顶点很少的情况也能得到比较好的效果。并且该方法还具有可扩展的优点,能够适应网络的变化,即可以在线改变网络的大小而不需要重新训练。

二.问题定义

  网络或图 G G 定义如下,由顶点集 V V 和边集 E E 组成:
G = ( V , E ) ( V × V ) G=(V,E),\subseteq(V\times V)
  如果在图G的基础上再加上顶点的向量表示和顶点所属的标注(网络节点分类问题中,网络中的每个顶点都有一个类别,所属的类别即为该顶点的标注)就构成了一个标注图 ( l a b e l e d   g r a p h ) (labeled \ graph) 。顶点的表示 X X 是一个 V × s |V|×s 维的矩阵, V |V| 表示顶点的数量, s s 是代表每个顶点的向量的维数(一般比较小),所以 X X 即为将每个顶点的向量结合在一起形成的矩阵。 Y Y 则是每个顶点的标注构成的矩阵。
l a b e l g r a p h G L = ( V , E , X , Y ) label \quad graph \quad G_L=(V,E,X,Y)

3.学习网络表示

学习一个网络表示的时候需要注意的几个性质:
1.适应性,网络表示必须能适应网络的变化。 网络是一个动态的图,不断地会有新的节点和边添加进来,网络表示需要适应网络的正常演化。
2.属于同一个社区的节点有着类似的表示。 网络中往往会出现一些特征相似的点构成的团状结构,这些节点表示成向量后必须相似。
3.低维。 代表每个顶点的向量维数不能过高,过高会有过拟合的风险,对网络中有缺失数据的情况处理能力较差。
4.连续性。 低维的向量应该是连续的。
  网络嵌入和 N L P NLP 中的 w o r d 2 v e c word2vec ,也就是词嵌入 ( w o r d   e m b e d d i n g ) (word \ embedding) 类似,前者是将网络中的节点用向量表示,后者是将句子中的单词用向量表示。 D e e p W a l k DeepWalk 处理网络节点的表示 ( n o d e   r e p r e s e n t a t i o n ) (node \ representation) 就是利用了词嵌入(词向量)的思想。词嵌入的基本处理元素是单词,对应网络网络节点的表示的处理元素是网络节点;词嵌入是一个句子中单词序列进行分析,那么网络节点的表示中节点构成的序列就是随机游走。
  所谓随机游走 ( r a n d o m   w a l k ) (random \ walk) ,就是在网络上不断重复地随机选择游走路径,最终形成一条贯穿网络的路径。从某个特定的端点开始,游走的每一步都从与当前节点相连的边中随机选择一条,沿着选定的边移动到下一个顶点,不断重复这个过程。下图所示绿色部分即为一条随机游走。
在这里插入图片描述
  关于随机游走的符号解释:以 v i v_i 为根节点生成的一条随机游走路径(绿色)为 W v i W_{v_i} ,其中路径上的点(蓝色)分别标记为 W v i 1 W v i 2 W v i 3 W_{v_i}^1,W_{v_i}^2,W_{v_i}^3… ,截断随机游走 ( t r u n c a t e d   r a n d o m w a l k ) (truncated \ random walk) 实际上就是长度固定的随机游走。
使用随机游走有两个好处:
1.并行化。随机游走是局部的,对于一个大的网络来说,可以同时在不同的顶点开始进行一定长度的随机游走,多个随机游走同时进行,可以减少采样的时间。
2.适应性。可以适应网络局部的变化。网络的演化通常是局部的点和边的变化,这样的变化只会对部分随机游走路径产生影响,因此在网络的演化过程中不需要每一次都重新计算整个网络的随机游走。
  网络中随机游走的分布规律与 N L P NLP 中句子序列在语料库中出现的规律有着类似的幂律分布特征。那么既然网络的特性与自然语言处理中的特性十分类似,那么就可以将 N L P NLP 中词向量的模型用在网络表示中。
在这里插入图片描述
首先来看词向量模型:
W i v = ( w 0 , w 1 , w 2 , . . . , w n ) W_i^v=(w_0,w_1,w_2,...,w_n) 是一个由若干单词组成的序列,其中 w i V ( V o c a b u l a r y ) , V w_i \in V(Vocabulary),V 是词汇表,也就是所有单词组成的集合。
在整个训练集上需要优化的目标是:
P r ( w n w 0 , w 1 , w 2 , . . . , w n 1 ) Pr(w_n|w_0,w_1,w_2,...,w_{n-1})
比如下面的单词组成的序列:
在这里插入图片描述
  优化目标就是 P r ( w 3 w 0 , w 1 , w 2 ) Pr(w_3|w_0,w_1,w_2) 意思就是当知道 I l i k e s t u d y i n g I like studying 后,下一个词是 E n g l i s h English 的概率为多少?
  如果将单词对应成网络中的节点 v i v_i ,句子序列对应成网络的随机游走,那么对于一个随机游走 ( v 0 , v 1 , v 2 , . . . v i ) (v_0,v_1,v_2,...v_i) 要优化的目标就是:
P r ( v i ( v 0 , v 1 , v 2 , . . . v i 1 ) ) Pr(v_i|(v_0,v_1,v_2,...v_{i-1}))
  当知道 ( v 0 , v 1 , v 2 , . . . v i 1 ) (v_0,v_1,v_2,...v_{i-1}) 游走路径后,游走的下一个节点是 v i v_i 的概率是多少?可是这里的 v i v_i 是顶点本身没法计算,于是引入一个映射函数 Φ \Phi ,它的功能是将顶点映射成向量(这其实就是我们要求的),转化成向量后就可以对顶点 v i v_i 进行计算了。
在这里插入图片描述
  映射函数 Φ \Phi 对网络中每一个节点映射成 d d 维向量, Φ \Phi 实际上是一个矩阵,总共有 V × d |V|×d 个参数,这些参数就是需要学习的。
在这里插入图片描述
有了 Φ \Phi 之后, Φ ( v i ) \Phi(v_i) 就是一个可以计算的向量了,这时原先的优化目标可以写成:
P r ( v i ( Φ ( v 0 ) , Φ ( v 1 ) , Φ ( v 2 ) , . . . Φ ( v i 1 ) ) ) Pr(v_i|(\Phi(v_0),\Phi(v_1),\Phi(v_2),...\Phi(v_{i-1})))
但是怎么计算这个概率呢?同样借用词向量中使用的 s k i p g r a m skip-gram 模型, s k i p g r a m skip-gram 模型有这样3个特点:
1.不使用上下文 c o n t e x t (context) 预测缺失词 m i s s i n g   w o r d (missing \ word) ,而使用缺失词预测上下文。因为 ( Φ ( v 0 ) , Φ ( v 1 ) , Φ ( v 2 ) , . . . Φ ( v i 1 ) ) (\Phi(v_0),\Phi(v_1),\Phi(v_2),...\Phi(v_{i-1})) 这部分太难算了,但是如果只计算一个 Φ ( v k ) \Phi(v_k) ,其中 v k v_k 是缺失词,这就很好算。
2.同时考虑左边窗口和右边窗口。下图中橘黄色部分,对于 v 4 v_4 同时考虑左边的2个窗口内的节点和右边2个窗口内的节点。
3.不考虑顺序,只要是窗口中出现的词都算进来,而不管它具体出现在窗口的哪个位置。
在这里插入图片描述
应用 s k i p g r a m skip-gram 模型后,优化目标变成了这样:
在这里插入图片描述
  其中概率部分的意思是,在一个随机游走中,当给定一个顶点 v i v_i 时,出现在它的 w w 窗口范围内顶点的概率。
  做了这样的处理后可以发现,忽视顶点的顺序更好地体现了在随机游走中顶点的邻近关系,并且只需要计算一个顶点的向量,减少了计算量。所以 D e e p W a l k DeepWalk 是将截断随机游走与神经语言模型 ( n e u r a l l a n g u a g e m o d e l ) (neural language model) 结合形成的网络表示,它具有低维、连续和适应性特征。

三.算法

  整个DeepWalk算法包含两部分,一部分是随机游走的生成,另一部分是参数的更新。
算法的流程如下:
在这里插入图片描述
  其中第2步是构建 H i e r a r c h i c a l   S o f t m a x Hierarchical \ Softmax ,第3步对每个节点做γ次随机游走,第4步打乱网络中的节点,第5步以每个节点为根节点生成长度为t的随机游走,第7步根据生成的随机游走使用skip-gram模型利用梯度的方法对参数进行更新。
参数更新的细节如下:
在这里插入图片描述

四.总结

  总的来说这篇论文算是 n e t w o r k   e m b e d d i n g network\ embedding 的开山之作,它将 N L P NLP 中词向量的思想借鉴过来做网络的节点表示,提供了一种新的思路,后面会有好几篇论文使用的也是这种思路,都是利用随机游走的特征构建概率模型,用词向量中 N e g a t i v e   S a m p l i n g Negative \ Sampling 的思想解决相应问题。

发布了166 篇原创文章 · 获赞 0 · 访问量 3626

猜你喜欢

转载自blog.csdn.net/jiangdongxiaobawang/article/details/104407797