【序列模型】第三课--序列模型和注意力机制

这一课将学习sequence2sequence model,广泛地应用于机器翻译等领域

1.基础模型basic model

以翻译为例,将如下一句法文翻译成英文,输入是法文的每个单词,输出是英文的每个单词,分别用x<t>,y<t>表示:
image_1ccpktldjotq1km412gkj811i6o9.png-62kB

如何构建一个模型,使得输入法文序列的词,输出英文序列的词呢?接下去要介绍的知识与思想主要来自于这两篇论文:
image_1ccpl2q0c1g6d3rm7dv1ijsepm.png-39.1kB

(1)首先建立一个网络,称之为encoder network,是一个RNN结构。RNN结构中的单元可以是GRU,也可以是LSTM。每个时刻只向该网络输入一个法语单词;当接收完所有单词之后,这个人NN网络会输出一个向量来代表这个输入序列。

(2)接着建立一个网络,称之为decoder network。每个时刻输出一个英文单词,直到它输出句子的结尾标记,这个解码网络的工作就结束了。

以上两步如下图所示:
image_1ccplq64neec974122d1a9sha71j.png-51.4kB
事实证明,当训练的样本足够多时,这个模型确实在翻译上有非常优秀的表现。

有一个与此类似的结构被用来做图像描述,即输入一张图片,输出一句对图像描述的句子。
首先将图片经过一个预训练的卷积神经网络(比如Alexnet),去掉最后一层的softmax层,将前一层的结果(4096维的向量)作为encoder network获取到的编码后的向量,输入给decoder network。与翻译模型一样,decoder network在每一个时刻输出一个词,所有词组合起来就是句对图像的描述的句子。比如输入的句子将会是:a cat sitting on a chair
结构如下:
image_1ccpmd49p1mvi9oo166iprb1n0420.png-182.1kB

2.选择最可能的句子

通过encoder-decoder的RNN,会将输入的法语句子翻译成英语句子,decoder输出单词的过程与语言模型生成序列一样,但是语言模型生成的序列是随机的,而机器翻译中生成的序列需要依据输入的语言,给出最好的翻译,是有条件的,因此称之为条件语言模型。

但是对同一句法语的翻译可能会有多个分布,机器翻译追求的是精准,因此并不是随机取样,而是要选出最好的最可能的翻译句子,即使得一下的条件概率最大化:
image_1ccq069g118sesapvdb1o581o9f2d.png-9.8kB
其中,x是输入的序列,y是输出的序列。

要选出最优的结果,你可能会想到“贪心搜索(greedy search)”,什么是贪心搜索呢?
首先会去选出最优的第一个词,在选出了第一个词的基础之上,再选出最优的第二个词,以此类推。但是贪心搜索在机器翻译中并不合适,我们要的是一词性输出整体最优的句子,使得整体的概率最大化。比如下面两个句子,显然第一个币第二个翻译得更好,因为第一个更简洁:
image_1ccq154n2isc1qd22mikk2ia42q.png-22.1kB
但是,若按照贪心算法,当选择好前两个词jane is 之后根据贪心算法,第三个词会是going最优,因此就会给出第二个句子,但是整个句子的条件概率并没有最大化。
贪心搜索的另一个缺点是计算量大,假设有10000个词,要生成10个词的句子,那么就是去计算10000的10次方。

因此可以使用一种近似的搜索算法,叫做beam search algrithm.下一节中介绍。

直接进入主题。

(1)第一步,选出第一个词。与上面的贪心搜索不同之处,首先在decoder端的第一个输出,是在所有词库中选择出概率最大的3个词做为起始词。即p(y<1>|x)最大。比如选出了如下B个词(B是认为设定的,比如3):
image_1ccqo6bn11fqo1irh1isvtlo12ok37.png-22.7kB

(2)第二步,针对每个起始词,都在decoder端的第二个时刻输出一个所有词库里的最优词,使该词与第一个词的联合条件概率最大,即p(y<1>,y<2>|x)最大,该概率可以如下计算得到:
image_1ccqokfnc1stragd1ol3hg91j1o3k.png-28.5kB
比如第一个词为”in”时第二最好的词是september;
第一个词为”jane”时第二最好的词是is;
第一个词为”september”时第二最好的词是XXX;
于是总共需要计算3*10000词,然后对这第二轮的30000个词进行评估选出概率最大的3个,这3个词不一定是要分别来自3个decoder输出,可以来自同一个。比如概率最大的是in–>september,第二大是jane–>is;第三大是jane–>visit,以september开头的并没有次入选。于是beam search会将这三组词保存在内存中。
于是原来有3种起始词,现在只剩2种了,棒极了。
image_1ccqqahcq1gpo198ma984o91bph41.png-97kB

(3)第三步,继续根据第二步生成3种情况,寻找联合条件概率最好的第三个词。
image_1ccqqb8pm1coeidt13jooi71itk4e.png-93kB
也是同样的套路,分别有3个RNN与之对应,每次寻找一个词,但获取出最有可能的3组,直到最后遇到句子的终止词,选出最优的一个句子

注意,若把B=1,则等同于贪婪搜索。但将B设置为>1,则往往会找到比贪婪算法更优的结果。

4.1长度归一化

长度归一化是对beam search对小优化。

上文介绍了beam search就是对以下概率对最大化:
image_1ccs0qfluldb2veium79s3554r.png-16kB
以上公式的乘机其实就等于P(y<1>,...,y<T>|x)。但酱紫计算有很大缺点,因为每一项p都是小于1的,假设这个要预测的序列很长,那么就会有很多P相乘,会得到很小很小的数字,导致电脑的浮点不能精确得储存。

因此,实际中会将上述乘机形式的公式做调整,变成log形式求和的模式:
image_1ccs14o2k190u7vl5o1ve31ec658.png-17.7kB
但这还有一个缺点,当序列很长的时候,每一项的概率值很小,那么log之后就为负,所有log项相加就会越来越负,使得模型更倾向于输出较短的句子。

因此,又将公式做调整,不去求log和的最大值,而是去求log项的均值:
image_1ccs1j5fj9d61fjike5d8a1opo5l.png-18.2kB
Ty是句子的长度,即用长度做归一化。

为了使其更柔和,往往会在Ty上放一个指数系数a:
image_1ccs1nusl1i7p1jgn3pc1hcrjm662.png-26kB
当a=1时等价于用序列长度去归一化,当a=0时就相当于完全没有归一化,而0<a<1则是在归一化与不归一化之间寻找一个合适的位置。a是一个超参数,需要在实验中调整大小来获得最好的结果。

4.2 其他

4.2.1 如何选择B

B越大,你考虑的范围就越大,找到的句子可能越好,但是从而计算量也越大。
在大部分企业应用中,一般会使用B=10左右,设为100已经很大了;但是在科研中,往往为了得到最最最优秀的结果发论文,会设置B=1000或者3000

5.beam search的误差分析

beam search是一种近似搜索算法,也被称做启发式搜索算法。它不总是输出可能性最大的句子,它只会根据认为设定的B,去选取前B种可能。那么如果beam search 算法出现错误怎么办呢呢呢呢?下面介绍下误差分析与beam search算法是如何互相起作用,使我们发现到底是beam search算法出现了错误还是RNN模型出现了错误。

还是同一个老?:
将这句法语:image_1cct8akdg6np1e3dmlevf8t59.png-18.8kB
翻译成正确的英语应该是:image_1cct8ba12p0t2th11sp77l154jm.png-22.4kB
但是模型通过训练后给出的翻译是:image_1cct8cjd81n6b1l261na01iv51fdi13.png-26.7kB
啊!不对不对,模型翻译错了,这个时候就要去找原因了,到底是beam search处理不当导致的错误,还是说RNN本身有与训练急太少等原因导致的错误呢?
这个时候我们会想到,无论是谁的错,反正我就增大B,或者增多训练样本就行。但是就算这样也不一定能得到你想要的结果。

好了,现在我们来看看到底什么情况下该用什么办法。
回顾翻译模型RNN的结构:
image_1cct8qjae18iicnd1n3tg16c7s1g.png-24.4kB
分别计算翻译对的句子(y*表示)和翻译错的句子(y^表示)的条件概率,即比较p(y*|x)与p(y^|x)的大小,从而来判断错误的预测应该归咎于RNN还是beam search。
(1)若p(y*|x) > p(y^|x),则说明RNN并没有错,是beam search的错
(1)若p(y*|x) <= p(y^|x),则说明beam search并没有错,是RNN的错

对所有预测出错的句子都进行如上计算,并统计出有多少比例是归咎与beam search,有多少比例是归咎于RNN。

6.bleu得分

从一种语言翻译成另一种语言,自然没有完全的一个标准答案,翻译模型有时可能会输出多个都很正确的结果,那么此时要如何评估一个机器翻译系统呢?通常,会使用bleu score来评估。

终于换了一个新?:
这句法语:image_1ccta1ihf1s13eqtcg7uam1up41t.png-16.5kB
可以翻译成:image_1ccta2sef1btq1qcu35abai1q5n2q.png-17.8kB
也可以翻译成:image_1ccta43kgk3d188c14a7i9u154s4n.png-20kB
上面两句人工翻译都是准确的,
此时对于机器翻译给出的句子们,会给每个句子都计算一个Bleu得分,来进行比较。评估的依据是如果翻译的句子离人工翻译的结果越接近则Bleu score应越高。(Bleu:bilingual evaluation understudy)

6.1 对单个单词进行评估

假设机器给出的翻译是:image_1cctam1b1mhcbpe1skiuh315hj64.png-19.6kB
嗯,这简直是个极差的翻译,现在我们来评估它的precision

假设机器翻译的句子中的单词出现在了任意一句人工翻译句子中,则得一分。那么由于the出现在了人工翻译中,于是机器翻译句子总共7个单词,出现在人工翻译中的单词有7个,y.这显然不符合常理,因为给这个句子打0分都不足为过。

于是,做了改进,分子的上限是该单词在所有人工翻译句子中出现次数的最大值,the在reference1中存现2词,在reference2中出现了1词,于是上限是2,因此modified precision=2/7。

6.2 对二元词组进行评估

除了对单个词计算precision还可以对二元词组(即相邻的两个单词)计算precision

仍然是上面这个例子,这一次模型给出的翻译稍微好一丢丢了:
image_1cctbbmt0q8h1opsrot1qnpsft6h.png-20kB

获取这个句子出现的所有二元词组,并分别计算每个词组出现的次数,同时计算这些词组在人工翻译句子中出现的最大次数(分别是以下3列表示):
image_1cctblk58m2oca41ms5191tkj7b.png-24.7kB
将第三列的和除以第二列的和,得到的分值就是基于二元组的分值:4/6

6.3 公式化Bleu的计算

将上面的过程用公式来表示一下。

一元评估:
image_1cctbqoo51c2g31s1mi92p8fdc7o.png-46kB

n元评估:
image_1cctbrgku1r3r15abbtn1ctl1gn68l.png-43.9kB

可见,如果机器翻译的句子和任何一句人工给出的翻译一模一样,那么以上得分将都为1

6.4 Bleu details

上面都在讲precision,那么说好的Bleu score呢?
根据以上的precision来构造最终的blue score。

用Pn表示Bleu score on n-grams only.分别计算处机器翻译的句子的P1,P2,P3,P4;然后求均值得到平均的Bleu score.

但这还不算最终的Bleu score,需要再给均值项上乘以一个惩罚因子BP(brevity penalty),顾名思义,即给较短的句子给予惩罚:
image_1cctcbbeu1op9frol0fif8i6g92.png-59.7kB
这个BP的原理是,如果翻译的句子越短,那么越有可能具备较高的bleu score,但是越短的句子并不是越好,较高的bleu score会误导我们的选择,因此需要给短句一个惩罚,使它的bleu score均值乘以一个0-1之间的系数。

7.注意力模型直观理解

7.1为什么要用注意力模型

至此,我们讲到的翻译案例都是一句很短的话,使用单纯到encoder-decoder RNN可以取得较高到Bleu。
image_1cct8qjae18iicnd1n3tg16c7s1g.png-24.4kB

但是当翻译一段很长的句子到时候,比如:
image_1ccui5kos1tsf1if51q7e1a1se2a9.png-126.7kB
就有点吃力了,因为encoder阶段要记住整句输入再传递给decoder进行翻译。就像人一样,在翻译一个长句时,往往无法全部读完并记住证据法语,再一词性翻译成英语,而是读一部分会事先翻一部分,等所有都读完翻完,在纵观整个句子调整与组合出正确的全文翻译。那么RNN要在长句中取得与短句同样好的表现,也需要这样一个机制,于是就需要“注意力机制”来帮忙实现。

7.2 直观理解

注意力机制虽然源于机器翻译,但也广泛推广到了其他领域。
为了讲解方便,使用回这个短句来做演示:image_1cct8akdg6np1e3dmlevf8t59.png-18.8kB

这里我们使用一个双向的RNN,每一个时刻的输入是一个法语单词,属于encoder端
image_1ccuimbb68k8h5v1jchkt5hrk13.png-56.3kB

decoder断是另一个RNN,输入记为S<0>,第一个时刻S<1>的输出应该是jane,为了使这个输出更准确,需要去回看一下输入的第一个单词或者与第一个单词相邻的单词是啥。这个回看的过程就是注意力的过程,用a<1,1>表示第一个输出需要给第一个输入多少注意力,翻译的过程不是词的一对一,因此可能第二个输入也会影响到第一个输出,因此用a<1,2>表示预测第一个词需要给多少注意力给第二个输入的单词。以此类推,也会有a<a,3>.所有的注意力信息用c表示,输入给S<1>
image_1ccujarr71fjfbp8psk1kh156c1t.png-107.8kB

同理,S<2>也会有相应的注意力信息C输入,同时它原来的两个输入也是存在的:上一个时刻的输出与上一个熟客的隐层信息(记忆)。剩下的词以此类推,直到输出<EOS>则完成翻译。
image_1ccuk1tt212sfkhek4nbubig2n.png-133.6kB

8.注意力模型深入理解

对注意力模型有了一个大概的了解之后,现在来深入讲一讲其运行机制。

encoder端如下,
image_1ccukfhc42dl1flm1vqc1tcclmh41.png-97.5kB
由于是双向RNN,因此每个时刻都有两个激活值,为了表示方便,我们两这两个激活值合起来表示成a<t'>:
image_1ccukdp6119p31g5p1mf6271h3k34.png-12.9kB

在decoder端是一个单向的RNN,时刻t=1时,有两个输入:S<0>,注意力信息C
image_1ccuki65jk2n1f7rcj219gq12884e.png-14.2kB
C时来自于输入端的注意力信息a<1,1>,a<1,2>,a<1,3>的和:
image_1ccukmfvem64hqd1ic1dbphre58.png-88.1kB
将所有a<1,i>加起来应等于1.C<1>的计算公式如下:
image_1ccukr8shud3e4oi9lio9fk5l.png-45.7kB
a<t,t'>代表着预测的单词需要给多少注意力给输入单词的激活项a

那么a<t,t'>如何计算呢?公式如下:
image_1cculbug3ssotl6vp11hmh1v9k62.png-15.3kB
之所以用exp()来表示,可以保证所有a<t,t'>求和猴能等于1.
那么公式中的e<t,t'>又是咋来的呢?可以用如下一个下的神经网络训练出来:
image_1cculfgh613r71mlh1ivedms1sl26f.png-29kB
输入时s<t-1>上一时刻的激活值,a<t'>是该时刻对应的encoder端的激活值。

如果输入的词有T_x个,输出的词有T_y个,则注意里系数共有T_x * T_y个。因此这个算法有着三次方的消耗。
在机器翻译上,输入与输出的句子大部分情况下都不会太长,因此三次方的消耗也还可以接受;但也有很多研究工作需要去尝试减少这样的消耗。

注意力系数可以可视化,比如:
image_1ccvnmu3116ot1tsi1felmgfhoq9.png-24.3kB
不同的颜色表示注意力的大小

机器翻译的只是就到此为止,。机器翻译的结构也同时被很多其他领域借鉴,比如“图片描述生成”

9.语音辨识

AI领域最令人兴奋的发展之一就是seq2seq model使得语音识别的准确率大大提升了。

9.1什么是语音识别

简单地介绍语音识别是什么?
有一段音频x,任务是要自动生成文本y:
image_1ccvocg2t10ti17sq1l3616ha1t3qm.png-54.4kB

人脑处理音频是根据不同频率和强度的声波。音频数据点常见预处理步骤,是运行原始音频,然后生成一个声谱图,横轴是时间,纵轴是音频,颜色代表声波能量大小。
image_1ccvohupg13l31n5b951m4r1eqn13.png-55.6kB

曾经有短时间,语音识别系统是通过音位来构建的,也就是人工设定的基本单元。但是现在有了seq2seq model之后就不需要人为搞的基本单元了,而是可以直接构造一个系统,向系统收入音频片段,系统直接输出文本。不过要构建这个系统需要一个很大的训练数据集,可能长达300小时,3000小时,目前最好的商业系统已经训练了100000个小时了。

9.2 如何建立语音识别系统

结构和机器翻译一样,就不赘述了。
image_1ccvp0ukv14dtu2k1l1frdqf2b1g.png-39.7kB

还有一种不错的方法,就是使用CTC损失函数来做语音识别(CTC:Connectionist Temporal Classification)
假设输入的语音是“the quick brown fox”
首先构建一个RNN网络(实际中更复杂,这里先用一个简单的单向网络做示范“:
image_1ccvp8onv19tf9dnr64nkokpr1t.png-24.8kB
在实际中,输入的时间步骤要比输出的时间步数大很多。比如你有一段10秒的音频,特征是100赫兹的,即美妙有100个样本,于是这段音频总共有1000个输入。但你的输出可能是十几个单词而已。
如果一定要输入输出登场的花,输出的形式可能是这样的:image_1ccvpfq9t159l1mml1d80hkn142a.png-13.2kB即一个单词中的字母会重复多次,CTC就是将重复的字母叠起来组合起来,形成the q…的一句话。

10.触发字检测

什么是触发字检测呢?假设你买了一个天猫精灵音响,你每次要跟他说话之前,都必须先喊一下“天猫精灵”触发他启动,他才能去有意识得听你接下去讲的话。像这样的产品很多,最近抖音傻姑娘比较流行的还有小米的音响,另外还有下面这些,都是智能音响中的新宠,他们都需要具备“触发字检测”来唤醒。
image_1cd13q79l1ge71mftl3j1tr2te42n.png-213.2kB

触发字检测目前还是初始状态,所以还说不上来什么算法最好,目前还没有广泛多定论。
这里简单介绍一个算法。

现在有一段音频,
image_1cd145emk11821g25181s1f8r1jtf34.png-36.4kB
先将他转换成音谱特征x1,x2…,然后放入RNN中,当音频中出现了触发自,则RNN的在该时刻的输出就为1,否则为0
image_1cd146q6s15t7bfh1ja61ap41o2v3h.png-93.3kB

但是这个算法有很大缺点,就是它构建了一个很不平衡的训练集:0的数量比1多太多了。有一个粗暴的解决方法,就是在识别了触发词之后,即某个时刻开始输出1之后,后面就算出现了非触发词,也让他标注为1,这样就增多了1的比例。因为我们只需要识别出是否有触发词,从而判断是否唤醒,一旦识别到了1就行了。


欢迎关注王小草的微信公众号,推送大数据,机器学习,深度学习,NLP等原创文章,欢迎交流与指正:
这里写图片描述

猜你喜欢

转载自blog.csdn.net/sinat_33761963/article/details/80248353
今日推荐