首页 > 编程知识 正文

神经网络机器翻译,nmt 机器翻译

时间:2023-05-05 05:23:35 阅读:226034 作者:677

教程:

· 由Thang Luong编写的NMT教程 -这是一个简短的教程,循序渐进的介绍神经机器翻译的原理。但稍微令人感到失望的是,没有详细记录基础实验的运行和评估情况。当然,解决这些问题很简单,但这确实需要花一点时间。

· 原始的Tensorflow seq2seq教程 -第一个Seq2Seq实验。现在我们讨论的是WMT15 set。

· tf-seq2seq (博客地址:这里)

· Graham Neubig的教程

· Nematus

· OpenNMT

· NeuralMonkey(基于Tensorflow)

有一点很特别:Tensor2Tensor采用新颖的架构,而原始基于RNN / CNN解码/编码架构。它的提出,产生了惊人的收益。因此,使得NNMT有可能成为未来翻译技术发展的趋势。

重要的论文:

· Learning Phrase Representations using RNN
Encoder–Decoder for Statistical Machine Translation by Cho Et al. (link) - Kyunghyun Cho发表的,非常创新和非常有智慧的一篇论文,还引入了GRU。

· Sequence to Sequence Learning with Neural
Networks by Ilya Sutskever (link) - 由谷歌的研究人员提出,首次显示NMT系统可以获得与传统的技术相似的效果。

· Google’s Neural Machine Translation System:
Bridging the Gap between Human and Machine Translation (link)

· Neural Machine Translation by Joint Learning to Align and
Translate by Dzmitry Bahdanau (link) - 提出Attention机制的论文

· Neural Machine Translation by
Min-Thuong Luong (link)

· Effective Approaches to Attention-based Neural
Machine Translation by Min-Thuong Luong (link) – 提出如何基于local Attention去提升Attention效果。

· Massive
Exploration of Neural Machine Translation Architectures by Britz et al (link)

· Recurrent Convolutional Neural Networks for
Discourse Compositionality by Kalchbrenner and Blunsom (link)


重要博客文章/网页:

· 注意机制和增强化的循环神经网络:仅与基于注意力机制的RNN部分相关,但Olah'的文章是非常值得阅读的。

· 斯坦福大学NMT实验室页面:涉及Luong,See和Manning在NMT上的工作。非常有趣看看最近的技术。教程/代码/模型可用。

其他:(未排序)

· JayPark的Github https://github.com/JayParks/tf-seq2seq

· https://github.com/ematvey/tensorflow-seq2seq-tutorials

· https://indico.io/blog/the-good-bad-ugly-of-tensorflow/

· https://www.reddit.com/r/MachineLearning/comments/43fw8s/simple_seq2seq_example_in_tensorflow/

· https://r2rt.com/recurrent-neural-networks-in-tensorflow-iii-variable-length-sequences.html

· http://forums.fast.ai/t/the-wonders-of-the-new-version-of-tensorflow-1-2rc0/3491

· http://monik.in/a-noobs-guide-to-implementing-rnn-lstm-using-tensorflow/

· http://suriyadeepan.github.io/2016-12-31-practical-seq2seq/

在Chatbot和Summarization中使用(未排序)

· https://tutorials.botsfloor.com/how-to-build-your-first-chatbot-c84495d4622d

· https://medium.com/towards-data-science/text-summarization-with-amazon-reviews-41801c2210b

· http://pavel.surmenok.com/2016/10/15/how-to-run-text-summarization-with-tensorflow/


往期精彩内容分享:

麻省理工学院-2017年-深度学习与自动驾驶视频课程分享

模型汇总22 机器学习相关基础数学理论、概念、模型思维导图分享

深度学习在自然语言处理中的应用综述

深度学习与NLP 深度学习|机器学习|人工智能 精品视频教程合集分享

深度学习/机器学习的处理器列表(最全_中文版)

纯干货14 2017年-会撒娇的往事-最新深度学习/机器学习中文视频教程分享_后篇

纯干货10 强化学习视频教程分享(从入门到精通)

纯干货7 Domain Adaptation视频教程(附PPT)及经典论文分享

更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。


win7中qq截图快捷键是什么

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。