DSSM|基于Transformer的语义相似度计算模型DSSM及代码开源

由于我主要研究问答系统,因此本博客仅更新NLP及问答相关内容,最近创了一个群,如果大家感兴趣可加q群号:376564367
github:https://github.com/makeplanetoheaven/NlpModel/tree/master/SimNet/TransformerDSSM

背景知识

基于知识图谱问答(KBQA)—语义依存分析及代码开源可知,一个完整的问答系统处理流程主要分为三个部分:1.解析;2.匹配;3.生成。解析(NLU)模块的处理方式在文中已大概说明了,接下来对匹配部分所用方法进行简单介绍,以及详细介绍基于Transformer的语义相似度计算模型实现方法。

匹配的过程其实就是信息检索的过程,其主要分成两大类:基于关键词的信息检索,基于语义的信息检索。

(1)基于关键词的信息检索
基于关键词的信息检索,主要是通过计算输入问题中的每个单词与待匹配答案中单词的相关性,来实现检索功能,这个相关性由以下三个部分组成:
1.问题中的单词w和答案A之间的相关性;
2.问题中的单词w和问题Q本身的相关性;
3.单词w所占权重。

常见的基于关键词信息检索的方法主要都是基于上述三个部分来计算相关性的,例如在TF-IDF中,TF(词频)主要就是用于计算问题中的单词w和问题Q本身的相关性,而IDF(倒转文档频率)则用于计算单词w的权重。BM25则是在原有基础上考虑了答案长度等因素,是一种对TF-IDF的改进的检索方法。

(2)基于语义的信息检索
基于关键词的信息检索,即通过深度学习的方法,以一种端到端的方式,来计算问题和答案、问题和文章、问题与问题,甚至单词与单词之间的相关性,其模型实现框架主要可以分为4大类:
1.DSSM;
2.Q-Q match;
3.记忆网络(MemoryNetwork);
4.基于深层语义的图匹配算法。

其中,对于上面4种方法来说,首先需要解决的问题就是如何对一个句子或一篇文章进行表示,将其转换为对应的特征向量,常见的表示方法可通过Bi-RNN,Attention方式实现。DSSM与Q-Q match的主要区别就在于,DSSM得到文章和问题的表示以后,通过计算两者之间的余弦相似度来计算相关性,而Q-Q match则是将两个表示拼接起来,带入到一个MLP中,进行分类,1则为相关,0则为不相关,或者可以进行更细粒度的分类。

记忆网络和图匹配算法,更多的用于机器阅读理解(基于开放领域的问答)和基于知识图谱的问答中,用于解决知识推理相关的问题。由于本章主要介绍DSSM,因此其他相关内容可查阅资料获取。

基于Transformer的语义相似度计算模型

该模型在DSSM模型的基础上,将模型的表示层使用基于Transformer的Encoder部分来实现,匹配层将通过表示层得到问题query和答案answer的特征表示进行余弦相似度计算,由于问题i除了与答案i相匹配以外,其余答案均为问题i的负样本,因此需要对每一个问题进行负采样。

在下面内容中,主要包含了以下4个部分内容:

模型实现代码

模型的实现代码位于目录:/NlpModel/SimNet/TransformerDSSM/Model/TransformerDSSM.py,其实现顺序从TransformerDSSM类开始。

首先,通过调用build_graph_by_cpu或者build_graph_by_gpu对模型整个数据流图进行构建,以上两种构建方式,分别对应着模型的cpu版本和gpu版本。在构建数据流图的过程中,需要依次去定义模型以下几个部分:

1.输入层

在输入层中,主要将输入的问题集和答案集转换成每个字符对应的字向量,最终形成一个三维矩阵t,q:

# 定义词向量
embeddings = tf.constant(self.vec_set)

# 将句子中的每个字转换为字向量
if not self.is_extract:
	q_embeddings = tf.nn.embedding_lookup(embeddings, self.q_inputs)
if self.is_train:
	t_embeddings = tf.nn.embedding_lookup(embeddings, self.t_inputs)

2.表示层

表示层的实现在函数presentation_transformer中。

在原Transformer中,对于其输入的三维矩阵来说,为了能够引入单词在句子中的位置信息,需要在原有单词语义向量的基础上,通过规则的方式加上每个单词在句子中的位置编码向量。在本模型中,输入数据直接通过一个双向GRU来对句子中每个字的上下文信息进行编码。

# 正向
fw_cell = GRUCell(num_units=self.hidden_num)
fw_drop_cell = DropoutWrapper(fw_cell, output_keep_prob=self.dropout)
# 反向
bw_cell = GRUCell(num_units=self.hidden_num)
bw_drop_cell = DropoutWrapper(bw_cell, output_keep_prob=self.dropout)

# 动态rnn函数传入的是一个三维张量,[batch_size,n_steps,n_input]  输出是一个元组 每一个元素也是这种形状
if self.is_train and not self.is_extract:
	output, _ = tf.nn.bidirectional_dynamic_rnn(cell_fw=fw_drop_cell, cell_bw=bw_drop_cell,
	                                            inputs=inputs, sequence_length=inputs_actual_length,
	                                            dtype=tf.float32)
else:
	output, _ = tf.nn.bidirectional_dynamic_rnn(cell_fw=fw_cell, cell_bw=bw_cell, inputs=inputs,
	                                            sequence_length=inputs_actual_length, dtype=tf.float32)

# hiddens的长度为2,其中每一个元素代表一个方向的隐藏状态序列,将每一时刻的输出合并成一个输出
structure_output = tf.concat(output, axis=2)
structure_output = self.layer_normalization(structure_output)

对输入数据进行编码以后,再将其带入到Transformer的Encoder部分,进行Self-Attention,AddNorm, Full-connect计算。其实现类依次为SelfAttention,LayNormAdd,FeedFowardNetwork,这三个类通过类TransformerEncoder进行封装。

在得到Transformer的输出以后,由于并没有得到每个句子的特征向量表示,需要在其基础上引入Global-Attention,对每个句子的最终特征向量进行计算,其代码如下。

w_omega = tf.get_variable(name='w_omega', shape=[self.hidden_num * 2, self.attention_num],
				           initializer=tf.random_normal_initializer())
b_omega = tf.get_variable(name='b_omega', shape=[self.attention_num],
				           initializer=tf.random_normal_initializer())
u_omega = tf.get_variable(name='u_omega', shape=[self.attention_num],
				           initializer=tf.random_normal_initializer())

v = tf.tanh(tf.tensordot(transformer_output, w_omega, axes=1) + b_omega)

vu = tf.tensordot(v, u_omega, axes=1, name='vu')  # (B,T) shape
alphas = tf.nn.softmax(vu, name='alphas')  # (B,T) shape

# tf.expand_dims用于在指定维度增加一维
global_attention_output = tf.reduce_sum(transformer_output * tf.expand_dims(alphas, -1), 1)

3.匹配层

匹配层的实现在函数matching_layer_trainingmatching_layer_infer中。这是由于模型在进行Tranning时需要进行负采样,而在Infer时不需要,因此需要定义两个不同的余弦相似度计算函数。

4.梯度更新部分

匹配层最终的输出是一个二维矩阵,矩阵中的每一行代表一个问题与其所对应答案(第一列),及负样本的余弦相似度值。对于这样一个矩阵,经过Softmax归一化后,截取第一列数据,采用交叉熵损失计算模型最终loss,最后使用Adam优化器对模型进行训练及梯度更新。

# softmax归一化并输出
prob = tf.nn.softmax(cos_sim)
with tf.name_scope('Loss'):
	# 取正样本
	hit_prob = tf.slice(prob, [0, 0], [-1, 1])
	self.loss = -tf.reduce_sum(tf.log(hit_prob)) / self.batch_size

with tf.name_scope('Accuracy'):
	output_train = tf.argmax(prob, axis=1)
	self.accuracy = tf.reduce_sum(tf.cast(tf.equal(output_train, tf.zeros_like(output_train)),
	                                      dtype=tf.float32)) / self.batch_size

# 优化并进行梯度修剪
with tf.name_scope('Train'):
	optimizer = tf.train.AdamOptimizer(self.learning_rate)
	# 分解成梯度列表和变量列表
	grads, vars = zip(*optimizer.compute_gradients(self.loss))
	# 梯度修剪
	gradients, _ = tf.clip_by_global_norm(grads, 5)  # clip gradients
	# 将每个梯度以及对应变量打包
	self.train_op = optimizer.apply_gradients(zip(gradients, vars))

模型调用方式

模型的调用代码位于目录:/NlpModel/SimNet/TransformerDSSM/Debug.py,其调用方式主要分为以下三种。

1.模型训练

TransformerDSSM模型的训练通过调用文件中的函数dssm_model_train实现,该函数以两个参数作为输入:

(1)faq_dict,该参数是一个问答对组成的列表,列表中的每一个元素均为一个问答对字典;

(2)embedding_dict,该参数是一个字典,字典中的每一个key是一个字符,value是该字符对应的字向量。字向量的提供位于目录:/NlpModel/WordEmbedding/Word2Vec/CharactersEmbedding.json

2.模型推理

TransformerDSSM模型的推理通过调用文件中的函数dssm_model_infer实现,该函数以五个参数作为输入,需要注意的是,模型的推理返回结果,是输入答案的位置索引:

(1)queries,该参数是一系列需要去匹配的问题组成的列表,列表中的每一个元素是一个问题字符串;

(2)answer_embedding,该参数是由一系列待匹配的答案经过表示层所提取的特征向量组成的列表,列表中的每一个元素是一个答案对应的特征向量,之所以用特征向量直接作为待匹配答案的输入,是为了减少数据经过表示层的计算时间,提高匹配效率;

(3)embedding_dict,该参数是一个字典,字典中的每一个key是一个字符,value是该字符对应的字向量。字向量的提供位于目录:/NlpModel/WordEmbedding/Word2Vec/CharactersEmbedding.json

(4)top_k,该参数表示当输入一个问题时,需要从待匹配的答案中返回top_k个候选答案,默认时,该参数的值为1;

(4)threshold,该参数通过设置语义相似度计算的阈值,当待匹配的答案其相似度低于给定阈值时,则不返回,高于则返回。

3.表示层特征向量提取

TransformerDSSM模型的表示层特征向量提取通过调用文件中的函数dssm_model_extract_t_pre实现,该函数以两个参数作为输入:

(1)faq_dict,该参数是一个问答对组成的列表,列表中的每一个元素均为一个问答对字典;

(2)embedding_dict,该参数是一个字典,字典中的每一个key是一个字符,value是该字符对应的字向量。字向量的提供位于目录:/NlpModel/WordEmbedding/Word2Vec/CharactersEmbedding.json

模型训练数据

本模块提供的训练数据,是作为预训练模型的训练数据,主要分为以下两种,其中SameFAQ表示问题,答案指向同一句子,各问答对间的语义完全独立,可用于进行语义空间划分,SimFAQ中的问答对则是语义相近的,用于语义相似度训练,该训练数据位于目录:/NlpModel/SimNet/TransformerDSSM/TrainData/

数据类型 数据量 格式
SameFAQ 38113 json
SimFAQ 20109 json

已训练模型库

本模块提供三种类型已训练完毕的模型,新的问答对数据可在这三个预训练模型的基础上进行训练,能够达到较好效果,经过实验发现,效果最好的预训练模型为经过SimFAQ训练后的模型。模型的参数为:hidden_num=256attention_num=512。其模型下载地址如下:

模型类型 下载地址 提取码
SimFAQ https://pan.baidu.com/s/1kff2aCsPdMQ_3wGgJaTcHA 6qhr
SameFAQ https://pan.baidu.com/s/1C_BfjRvwV9XNM3BZ5xy-pQ eexz
SameFAQ+SimFAQ https://pan.baidu.com/s/1fKh4h3H6uwlHPNh2et8SKQ cvmn

猜你喜欢

转载自blog.csdn.net/qq_28385535/article/details/92803375