Transformer具体如何进行机器翻译

Transformer最具体形象的例子就是做机器翻译了,搞懂这个再去理解其他用Transformer做的下游任务就更方便了,比如时间序列预测,你搞不懂Encoder/Decoder的数据怎么喂进去的,怎么编码的,为什么编码,那不是就有点本末倒置了,基础都没get,现在的文章大部分都是直接给模型理解,没讲清楚整体流程,这篇文章的目的就是讲清楚整个流程。

链接1看Encoder-decoder如何机器翻译这个看懂了,再看森哥的Transformer,再看看官方开源代码,整体概念与实现细节就差不多了,多练,忘了回来反复看。

PPT看这个就够了

DeepLearning/9_RNN_6.pdf at master · wangshusen/DeepLearning · GitHub

视频看森哥就够了

RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型_哔哩哔哩_bilibili基础流程还得看森哥的视频

 

 

 

参考资料

6_机器翻译与Seq2Seq模型_IT-cute的博客-CSDN博客

用Pytorch和transformer实现机器翻译_哔哩哔哩_bilibili//代码讲解

拆 Transformer 系列一:Encoder-Decoder 模型架构详解 - 知乎//讲特别清楚

猜你喜欢

转载自blog.csdn.net/weixin_43332715/article/details/124926294