《Adversarial Training for Relation Extraction》浅析

hello,今天给大家带来的仍然是关系抽取相关的论文

关系抽取:其目标就是预测在文本中多次提到的一些实体对的“关系”。

说实话小编到现在对什么叫“关系抽取”还没有一个具体的认识,目前的认知只是停留在空中楼阁。等小编复现一篇论文中的成果的时候应该就清楚了。

毕竟是笔记,所以知识点可能比较零碎并且基础,如果不能帮到您请及时退出。

1.这篇论文首先说“对抗式学习 ”这种方法(也就是通过主动加入噪音提高训练效果)在很多强监督领域内取得很好的效果,比如image分类和文本分类。

2.这里提到了多实例学习:在此解释一下:

顾名思义, Instead of receiving a set of instances which are individually labeled, the learner receives a set of labeled bags, each containing many instances.就是多实例。在一个简单的二分类问题中,如果所有包中Instance都是负的,那么这个包就是负的,只要有至少一个正的。这个bag就是正的。(虽然还不太明白,但是先记在这里,以待后续理解。)

3.同样提到了“end-to-end”这个词,小编把知乎高赞回答放在这里:

4.文中提到dropout,在此也阐述一下:

https://blog.csdn.net/stdcoutzyx/article/details/49022443

这篇文章我觉得写的很不错。不仅阐释了什么是dropout,还尝试揭示其中的原理。

5.说了这么多好像没有涉及论文的什么具体内容。其实小编看了以后觉得,这篇论文借鉴了很多前人的成果,包括试验方法也基本采用我前一篇博客所介绍的《Neural Relation Extraction with Selective Attention over Instances》中的方法。那么他的新意到底在哪呢?其实是在于如何加入“噪声”,下面我们来看一看他们是怎样实现的。

实际上作者是在词嵌入这一层加入噪声,具体怎么加入,见公式:

这里唯一的参数就是ε。在ε的选择上,当ε = 0,AT损失退化为原始loss; 当ε变得太大,噪声会改变句子的语义,并使得模型非常难以正确分类对抗的例子。值得注意的是,ε的最优值比词嵌入的范数要小得多,这意味着只有在对句子特征进行微小扰动的同时保持语句的语义不变的情况下,对抗训练才能最有效地发挥作用。

猜你喜欢

转载自blog.csdn.net/weixin_40909358/article/details/88762011