您现在的位置是:首页 > 文章详情

PyTorch快餐教程2019 (1) - 从Transformer说起

日期:2019-10-21点击:552

PyTorch快餐教程2019 (1) - 从Transformer说起

深度学习已经从热门技能向必备技能方向发展。然而,技术发展的道路并不是直线上升的,并不是说掌握了全连接网络、卷积网络和循环神经网络就可以暂时休息了。至少如果想做自然语言处理的话并非如此。

2017年,Google Brain的Ashish Vaswani等人发表了《Attention is all you need》的论文,提出只用Attention机制,不用RNN也不用CNN,就可以做到在WMT 2014英译德上当时的BLEU最高分28.4.

RNN机器翻译简史

在Transformer模型被提出之前,机器翻译一直是以RNN为主。
使用的工具是著名的RNN的两个改进版,1997年提出的长短时记忆网络LSTM和2014年提出的门控循环单元GRU。这三种实现均在torch

原文链接:https://yq.aliyun.com/articles/721696
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章