Commensense Reasoning:SemEval-2020 Task 4: Guiding PLM with Prompt Template Reconstruction Strategy

《IIE-NLP-NUT at SemEval-2020 Task 4: Guiding PLM with Prompt Template Reconstruction Strategy for ComVE》

在这里插入图片描述
在这里插入图片描述

这篇论文是中科院信息工程研究所雏鹰团队——机器阅读理解方向发表在2020SemEval上的报告。

背景介绍

SemEval2020介绍

国际语义评测研讨会(International Workshop on Semantic Evaluation, SemEval)是由ACL下属的
SIGLEX主办,是全球范围内影响力最强、规模最⼤、参赛⼈数最多的⾃然语⾔语义评测竞赛。

在本届SemEval-2020国际语义评测⼤赛中,中国科学院信息工程研究所胡玥老师带领的参赛团队雏鹰团队(IIENLP-NUT系统名)(团队成员:邢璐茜、谢玉强、彭伟)在Task4: Commonsense Validation and Explanation (常识验证与解释, https://competitions.codalab.org/competitions/21080) 子任务A-常识验证及子任务B-常识解释选择上均取得了Top-3的好成绩。

任务介绍

SemEval-2020 常识验证与解释任务由⻄湖⼤学博⼠⽣王存翔、 SUTD博⼠⽣梁帅⻰、⻄湖⼤学张岳教授和Queen’s University 朱晓丹教授共同举办。
该赛题进⼀步划分为三个⼦任务,分别是

  • a) Commonsense Validation,
  • b) Commonsense Explanation(Multi-Choice),
  • c) Commonsense Explanation(Generation)

⼦任务A: Commonsense Validation
常识验证⼦任务中,输⼊为两个有相似结构的陈述,要求系统判断出哪个陈述是符合常识的,哪个陈述相对不符合常识。评价指标采⽤准确率。

⼦任务B: Commonsense Explanation (Multi-Choice)
常识解释选择⼦任务中,输⼊为⼦任务A中不符合常识的错误陈述,以及三个可能为不符合常识陈述的解释选项,要求系统从候选选项集合中,选出最能够解释不符合常识陈述出错的原因。评价指标采⽤准确率。

⼦任务C: Commonsense Explanation (Generation)
常识解释⽣成⼦任务中,输⼊同样为⼦任务A中不符合常识的错误陈述,要求系统⽣成可以解释不符合常识陈述的原因。评价指标采⽤⽂本⽣成的评价指标BLEU以及⼈⼯评价。

任务分析

⼦任务A的⽬标是检验模型是否具有区分违反常识的⾃然语⾔陈述的能⼒。⼦任务A的主要挑战在于,违反常识的陈述在句法层⾯通常是符合语⾔学结构的,但是在语义层⾯上,其含义是不符合通常的常识知识,考验模型所具备的常识知识。

⼦任务B的⽬标是通过选择合适的解释的⽅式,检验模型是否真正地理解了⼀个陈述为什么是违反常识的。⼦任务B的挑战在于,尽管所有的候选解释都与违反常识陈述的内容有关,但是有些候选项并不包含解释不符合常识的主要原因,反⽽由于在内容上存在关联,会分散模型的判断能⼒。

近期⼀些⼯作表明,预训练语⾔模型除了在语⾔理解上具有很好的性能之外,通过在⼤规模语料上进⾏学习,其内部已经习得了某些常识知识。因此,我们不仅仅将预训练语⾔模型看做上下⽂编码器,⽤以产⽣句⼦的表示,同时,我们还把预训练语⾔模型看做知识存储器,希望在问答过程中可以隐式地利⽤预训练语⾔模型提供常识知识。

针对上述挑战,我们从以下两个主要指导意图出发,以多选型问答的⽅式设计两个⼦任务的解决⽅法:
(1)意图1:如何“唤醒”并利⽤预训练语⾔模型内部的隐式知识来帮助完成常识验证和解释任务?
(2)意图2:丰富违反常识陈述的上下⽂是否能够/如何帮助系统更好地选择正确的解释?

针对第⼀点,我们设计了⼀种基于提示模板(prompt template)的⽅法,⽤于重构⼦任务输⼊以适⽤于问答任务。

针对第⼆点,我们为⼦任务B构建了⼀个提示问题(prompt question),并且利⽤额外的信息对其进⾏扩展,以提供对⽐信息,帮助模型能够定位到造成违反常识的原因。

此外,我们还探索了基于预训练语⾔模型打分的⽅法来完成常识验证⼦任务,并探索了预训练语⾔模型内部隐含的常识知识能够在多⼤程度上帮助常识验证⼦任务。

论文链接:https://arxiv.org/abs/2007.00924

以下是论文详述,原文可见上述链接

Abstract

本文介绍了针对SemEval Task4的前两个子任务的系统:常识验证和解释。 为了阐明判断的意图并注入对比信息以供选择,我们提出了带有模板的输入重建策略。 具体来说,我们将子任务形式化为多项问题,并使用提示模板构造输入,然后,将最终回答预测视为子任务的结果。 实验结果表明,与基准系统相比,我们的方法具有显着的性能。 我们的方法在前两个子任务的两个正式测试集中都获得了第三名,其准确度分别为96.4和94.3。

1、Introduction

自然语言理解(NLU)要求系统不仅能够弄清文本的语义,而且能够在现实世界的常识知识的约束下理解文本。 识别无意义的自然语言陈述,并产生对无意义的文本的解释的能力是实现对自然语言理解的基础。 SemEval-2020任务4提供了结构良好的评估任务,旨在评估基于常识验证和解释的系统能力。

常识验证和解释(ComVE)任务分为三个子任务:

  • 验证
  • 解释选择
  • 解释生成

我们主要关注并参与前两个子任务。第一个子任务(subtaskA)的目标是检查系统区分区别于常识的自然语言语句(即,无意义/错误语句)的能力。第二个子任务(subtaskB)的目标是测试系统是否可以正确理解造成反事实的原因。在子任务A中,区分无意义的陈述所面临的挑战在于,这种陈述通常在句法层面上符合语言结构,但其含义却不符合语义层面上的一般常识。在子任务B中,为虚假陈述选择适当的解释的困难在于,尽管候选解释与虚假陈述的内容相关,但它们可能不包含解释虚假陈述的主要原因,并且会分散系统的注意力。

为了解决上述挑战,我们首先将两个子任务形式化为一种多选问答(QA)任务。 此外,我们将PLM用作上下文编码器来生成句子的表示形式,还通过两阶段的预训练将PLM视为知识存储,可以在回答问题时隐式提供常识知识。

为了应对前面提到的挑战,我们设计了多选QA方式解决两个子任务的方法,具有以下两个指导意图:(a)如何唤醒和利用PLM的隐性知识进行常识验证和解释 ; (b)上下文的扩展将如何帮助系统为错误陈述选择正确的解释。

  • 对于第一点,我们探索了一种基于模板的方法来重建编码器的输入。 在子任务A中,我们设计了一个提示性问题,并将此子任务转换为多项选择QA样式格式,其中将语句用作候选答案。 在子任务B中,我们将带有提示模板的错误陈述重新格式化,比如A陈述是反事实的,是因为B解释。 提示模板旨在激活预训练模型内部的常识知识,并且可以将其视为查询以检索PLM中的常识知识。另外,提示模板丰富了PLM的输入,以明确表达子任务的意图。
  • 对于第二点,我们建议在子任务B中用更多上下文扩展prompt question,带有更多文本信息,比如正确和错误陈述的对比信息。

2、Approaches

Task Define : 5个元素 S 1 , S 2 , O 1 , O 2 , O 3 {S^1, S^2, O^1, O^2, O^3} S1,S2,O1,O2,O3
分别表示两个陈述和三个解释。

S 1 , S 2 {S^1, S^2} S1,S2 一个是真实事实。一个是反事实。 O i O^i Oi 只有一个是正确的解释原因。

我们把两个子任务转成多选问题,包含一个PLM的编码器和一个任务确定的分类层。对于每一个问题答案对,我们可以得到下面的计算公式。inp,表示的是经过重构的输入 。 C i C^i Ci表示的是陈述的First Token,即[CLS]。 拥有打分更高的候选答案将会被视为最后的预测。

在这里插入图片描述

2.1 Approach for Sense-Making Statement Validation

在第1个子任务中,模型要求能够去选择一个反事实的陈述。我们把这个子任务转成多选的qa问题。其中问题是我们人工构造的一个prompt question。这个prompt question有两个功能,第一,他能够去检索(激活)预训练语言模型内部的常识知识;二,acting as the role of a potential question to be answered with the making-sense statement;

因此我们直接构造了一个启发式的prompt question,比如:If the followingstatement is in common sense?

我们认为这种方式,从语义角度来说,能够包含子任务的背后的意图(验证常识).

所以对每一个样例,我们都能够去构造一个这样子的问题和陈述对。然后分别取每一个陈述的cls向量,作为分类层的输入,得到最后的结果。除此之外,考虑到长度的限制以及计算效率,我们用另一个方式去结合问题和陈述。比如:[CLS] If “ Si ” is in common sense? [SEP].

2.2 Approach for Explanation Selection

对于第二个来说系统需要从三个候选当中去选择最合理的解释。这也是一个很直觉的多选任务,但是we argue:错误的陈述从语法上来说是一个完全正确的自然语言的句子,如果直接把这个错误的陈述和每一个候选解释连接起来,可能会干扰模型的表现。也就是说模型非常容易去关注到陈述和解释之间的相似性,而不是我们所需要的因果关系。基于上述考虑,我们会构造一个prompt template,为了能够让模型去理解 the false statement as a question to be answered.

因此我们构造的模板如下:[CLS] Sf is against common sense because Oj [SEP] .
下划线会被这个候选的解释去替代。

然而如果仅仅是使用这种错误的事实信息是不足够的。他会干扰模型发现在错误事实和候选解释间的因果关系的能力。我们对数据进行了观察,发现 true statement经常会和false statement,共享同一个主题。另外true statement的内容是in come sense的。所以我们重新利用上真实陈述的信息,可以与错误的事实形成了一个对比的信息。因此我们又构造了如下的模板:
[CLS] If St is in common sense. [SEP] Sf is against common sense because Oj [SEP]

3、Experiments and Results

具体的实验设置大家可以移步论文,这里就不作赘述了。

下图是我们对两个子任务构造的模板:
在这里插入图片描述

1、主实验

我们在两个子任务上进行了实验。其中omcs是指我们用额外的常识语料对模型进行二阶段训练。 P和C表示对应的模板。在子任务一上,我们发现通过增加模板信息能够使模型效果提升,通过额外的语料去预训练语言模型,能够达到一个更好的效果,但是两个模板在子任务一上面的表现并不是很明显,我们认为这个原因是因为这两个模板带来的效果是一致的,即使他们的表现形式有所不同。在这里插入图片描述

对于第2个子任务来说,我们的模型通过增加P和增加P+C,模型的效果都在提升,说明这两个模板构造获得的语义信息也是有所差异的。和我们的假设一致,通过增加对比信息,模型的效果能够达到最好。

4、Discussion

1、Probing Commonsense Knowledge within PLM

我们想要去探究预训练语言模型当中是否真的隐含了常识知识。因此我们进行如下的操作:对每一个陈述中的token顺序的mask,然后能够得到每一个token的概率值。所有的token概率值乘起来得到这个陈述的概率。因此我们能够去获得真实事实和错误事实的打分。如果模型足够理想的话,那么真实事实的打分肯定是大于错误事实的。如果模型把真实事实的打分,误判成小于错误事实的打分,那么error+1。因此我们可以计算一个准确率,最后我们发现:
RoBERTaLarge gets an accuracy of 79.5% while the RoBERTaOMCS obtains an accuracy of 86.3%.

2、The Effect of Prompt Templates on subtask A

Orig. represents the original input format for RoBERTa.

我们在任务a上做了一些case study。对于第1个例子来说,增加模板能够使得模型都判断准确。说明模板能够去对模型有一定的暗示作用。对于第2个例子来说,第1个模板任然不奏效,但是第2个模板提供了一个更好的hint。对于第3个例子来说,所有的模型都做错了。有可能是模型自己的问题,语料当中的偏置或者是TV这个词出现的词频等等。
在这里插入图片描述
总之,模板能够帮助模型去理解这个任务中的一些对象,但是在数据集里面仍然有一些还未被解决的问题。

同时我们在任务b上也做了一些case study的展示,我们发现通过增加p+c这个模板,能够对大部分的数据都预判正确,说明这个模板给模型带来的信息还是比较丰富的,比如说显式给出因果关系,以及真实事实和错误事实的对比关系。
在这里插入图片描述
除此之外,我们还尝试了数据增强,因为我们发现数据中的错误事实部分是对真实事实进行主语替换,词位置顺序改变等方式,但是增加了部分数据加入训练发现效果并没有带来很大的提升,原因可能是因为模型的效果已经达到了96%+,在通过增加部分数据,效果难以有明显的提升。

reference

[1] Luxi Xing, Yuqiang Xie, Yue Hu, Wei Peng. IIE-NLP-NUT at SemEval-2020 Task 4: Guiding PLM with Prompt Template Reconstruction Strategy for ComVE, SemEval 2020.

[2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. 2019. Roberta: A robustly optimized BERT pretraining approach. CoRR

[3] Shuailong Wang, Cunxiang andLiang, Yili Jin, Yilong Wang, Xiaodan Zhu, and Yue Zhang. 2020. SemEval-2020 task 4: Commonsense validation and explanation. In Proceedings of The 14th International Workshop on Semantic Evaluation. Association for Computational Linguistics

[4] Cunxiang Wang, Shuailong Liang, Yue Zhang, Xiaonan Li, and Tian Gao. 2019c. Does it make sense? and why? a pilot study for sense making and explanation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4020–4026, Florence, Italy, July. Association for Computational Linguistics.

猜你喜欢

转载自blog.csdn.net/ganxiwu9686/article/details/108485979