论文阅读 | Revisiting Joint Modeling of Cross-document Entity and Event Coreference Resolution

论文地址 :https://arxiv.org/abs/1906.01753

作者 :Shany Barhom, Vered Shwartz, Alon Eirew, Michael Bugert, Nils Reimers, Ido Dagan

机构 : Bar-Ilan University, Intel AI lab, Technische Universitat Darmstadt

研究的问题:

关注的是跨文档的实体识别,也就是判断来两个来自于不同文档的实体/事件是否是同一个实体/事件。当前主要的研究是关注于同一个文档内的识别,对于跨文档任务,常用的数据集是ECB+,但当前在该数据集上的工作只涉及事件的共指识别。本文提出了一种用于跨文档共指解析的联合模型。

研究方法:

指代的表示

对于给定的一个指代(实体或事件),使用以下特征来计算它的向量表示。

(1)跨度。使用词级别和字级别的特征,连接在一起作为跨度向量。

扫描二维码关注公众号,回复: 11025878 查看本文章

(2)上下文。使用ELMO来对上下文建模,取三个LSTM层结果的平均值。

(3)对于其他指代的语义依赖。使用SRL系统对指代之间的语义关系建模,具体是,使用Arg0,Arg1,location,time四种语法角色来表示。如果Arg1被填充了,它当前属于C这个实体类别。Arg1的向量就是C中所有指代的跨度向量的平均,否则就将它置为零向量。这部分的最终表示是Arg0,Arg1,location,time四部分向量的拼接

最终使用的向量是上述三种向量表示的拼接。

表示如下:

 

指代的匹配:

整个模型如下图所示。

 

通过S(m_i,m_j)来返回两个指代相同的概率分数,对于实体和事件使用不同的函数。

输入是,O代表的是按元素的乘法。F(i,j)是一个50维的二进制向量,表示两个指代是否有相互引用的参数或谓词。损失函数为二元交叉熵损失函数。

Inference:

首先使用k-means对文档聚类,生成一组主题T。在实体聚类和事件聚类之间交替迭代,逐步构建最终的聚类结果。

训练:

与inference的区别在于,使用gold standard的主题集群和初始化来减少训练时的噪音。

下面这种表是两个过程的算法描述。

 

 一些额外的启发式规则:

(1)将带所有格的名字性事件(如Amazon’s)定义为谓词和它的Arg0。

(2)使用spaCy识别主语和宾语是实体的动词事件,将这些实体作为他们的Arg0和Arg1.

(3)对于给定的事件,将其最接近的左/右实体定义为它的Arg0/Arg1.

实验结果:

实体引用的结果:

 

事件引用的结果:

 

总的来看,优于各种baseline模型。

评价:

本文的主要亮点在于提出的对于指代的表示,分别使用了自身的embedding,这里用了词粒度和字粒度两种,上下文向量,直接使用ELMO来作为上下文表示,ELMO相比于word2vec得到的embedding本身就有很多优点,最后是对于指代之间的关系的建模。一些缺点在于在提取谓语-内容结构时使用的固定的规则带来的误差,另外本文没有提到模型的时间运行效率,不过看下来模型的embedding时间应该消耗比较大。

猜你喜欢

转载自www.cnblogs.com/bernieloveslife/p/12748760.html