码迷,mamicode.com
首页 > 系统相关 > 详细

基于Attention的机器翻译模型(Visualizing A Neural Machine Translation Model)

时间:2021-01-26 12:15:37      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:learn   models   github   ref   neu   ola   log   ali   enc   

参考:

https://blog.csdn.net/qq_41664845/article/details/84245520#t5

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

论文题目:Neural Machine Translation by Jointly Learning to Align and Translate

论文地址:http://pdfs.semanticscholar.org/071b/16f25117fb6133480c6259227d54fc2a5ea0.pdf

 

这篇论文在传统的encoder-decoder的NMT上加了attention机制。

encoder-decoder for NMT:

 技术图片

 

我们就主要来讲一讲加上的attention。

 

基于Attention的机器翻译模型(Visualizing A Neural Machine Translation Model)

标签:learn   models   github   ref   neu   ola   log   ali   enc   

原文地址:https://www.cnblogs.com/gagaein/p/14322257.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!