Graph Embedding 、Network Embedding和Knowledge Graph Embedding以及Representation 和Embedding之间的区分

注意,在此只是谈一下个人的一点理解,如有不对的地方,欢迎指正,共同探讨!

Representation和Embedding

首先,想先说一下representation和embedding之间的区别和联系,仅供参考。这两个词目前在计算机领域,尤其的是深度学习方面是如火如荼啊,算是热词吧。很多文献里面,对这两个词没有进行严格的区分,认为是同一个概念,比如常见的有word embedding和word representation。在我看来,这两个词还是有一点区别的,我觉得representation表示的概念要大于embedding。representation意为表示,例如词表示(word representation),embedding意为嵌入,例如词嵌入(word embedding),而表示的方法有很多,嵌入可以作为其中的一种, 比如,词表示的方法有很多种,词嵌入技术就是其中的一种表示方法,除此之外,还有one-hot,word-of-bag等。和embeding比较相近的一种说法是distributed representation(分布式表示),都是将某一事物表示成向量的形式,最好还是低维向量,这样可以便于计算操作。当然,有时候这两个词表示的意思区别不大,所以很多文献中是混合使用的,比如:Network embedding learning和Network representation learning,Knowledge representation learning和knowledge embeding learning可以理解成同一个概念,如果非要区分的话,就按照我上面的解释进行区分即可。(再次声明,仅仅代表个人理解)。

Graph Embeding、Network Embeding 和Knowledge Graph Embeding

其实,不好区分的是前两个概念(GE和NE),而KGE主要是面向知识图谱的一种概念,前两个主要是面型社交网络(图)的一种概念。所以从所属的范畴上很容将KGE和GE、NE区分开来。所以,着重说一下GE和NE的不同。下面是我查阅文献的结果,可以参考一下。
在这里插入图片描述

在这里插入图片描述
谈一下自己的见解:

前面,我们已经说过representation和embedding的区别了,那么GE和NE都可以看作是NRL(Network Representation Learning)的子集,都是对于网络进行表示学习的方法。其中GE更加强调是传统的图表示方法, 比如LLE,LE,GF等,它们更加侧重于降维任务NE更加侧重是对于后来这种分布式假设的表示方法,比如Deepwalk,node2vec,LINE等,它们不仅关注降维任务,还更加强调要尽可能大的保存网络属性, 比如高阶的近邻关系或者网络中的某些特性(如同质性/结构等价性等)。

发布了115 篇原创文章 · 获赞 132 · 访问量 22万+

猜你喜欢

转载自blog.csdn.net/u010626937/article/details/88829096