首页 > 编程知识 正文

NLP汉语自然语言处理原理与实践,nlp自然语言处理python

时间:2023-05-04 23:29:31 阅读:181444 作者:2522

来源:http://www.Sina.com/wechatpublic (http://www.Sina.com/) )。

编辑:墅颐

校稿:墅颐

时间: 2020-02-27

以下是作者总结的关于自然语言生成(NLG )的论文。 能找到源代码的作者也直接投稿。 如果对NLG感兴趣或者在找相关报道的话,希望你能帮助我。 ~

如果您不方便下载某篇论文,也可以关注AINLPer回复:点击了解一下吧进行打包下载。

33558 www.Sina.com/reinforcementlearningbasedgraph-to-sequencemodelfornaturalquestiongeneration

引言:Yu Chen,Lingfei Wu,Mohammed J. Zaki

3358 www.Sina.com/https://open review.net/pdf? id=HygnDhEtvr

3358 www.Sina.com/https://github.com/Hugo chan/rl-based-graph2seq-for-nqg

AINLPer本文提出了一种基于强化学习(RL )的QG图像序列(Graph2Seq )模型。 该模型由具有双向门控图神经网络编码器的Graph2Seq生成器和混合估值器组成,结合交叉熵和RL损耗,保证了生成的文本在语法和语义上都是有效的。

33558 www.Sina.com/data-dependentgaussianpriorobjectiveforlanguagegeneration

NLG001Zuchao Li,Rui Wang,Kehai Chen,Masso Utiyama,Eiichiro Sumita,Zhuosheng Zhang,Hai Zhao

3358 www.Sina.com/https://open review.net/pdf? id=S1efxTVYDr

3358 www.Sina.com/https://drive.Google.com/file/d/1q8 pqhf9eolohococgvkxta _ olp6q2mn

TILE:语言生成问题一般采用最大似然估计[MLE],但由于MLE忽略了负的多样性,本文通过额外引入Kullback-Leibler方差项来增加MLE损失,该方差项

3358 www.Sina.com/code2seq 3360 generatingsequencesfromstructuredrepresentationsofcode

Author:Uri Alon,Shaked Brody,Omer Levy,Eran Yahav。

3358 www.Sina.com/https://open review.net/pdf? id=H1gKYo09tX

Paper:None

Code:本文提出了code2seq模型,是一种利用编程语言语法结构更好地编码源代码的替代方法。 请注意,模型将代码片段表示为抽象语法树(AST )中的一组组合路径,并在解码时选择相关路径。

33558 www.Sina.com/execution-guidedneuralprogramsynthesis

论文简述:Xinyun Chen,Chang Liu,bldgb。

3358 www.Sina.com/https://open review.net/pdf? id=H1gfOiAqYm

TILE:None

Author:许多现有的神经程序合成方法采用编码器-解码器结构,但现有方法的主要缺点是语义信息没有得到充分利用。 为此,本文提出了两种简单有原则的技术来更好地利用语义信息。 这两种技术是执行诱导合成和合成器的集成。 这些技术十分通用,可以与现有的编码器-解码器式神经编程合成器相结合。

33558 www.Sina.com/representationdegenerationproblemintrainingnaturallanguagegenerationmodels

Paper:Jun Gao,Di He,Xu Tan,Tao Qin,Liwei Wang,Tieyan Liu。

> Paper:https://openreview.net/pdf?id=SkEYojRqtm
Code: None
论文简述: 研究了基于神经网络的自然语言生成任务模型训练中出现的表示退化问题,提出了一种新的正则化方法。语言建模和机器翻译的实验表明,该方法能有效地缓解表示退化问题,并获得比基线算法更好的性能。

TILE: MaskGAN: Better Text Generation via Filling in the ___
Author: William Fedus, Ian Goodfellow, Andrew M. Dai.
Paper:https://openreview.net/pdf?id=ByOExmWAb
Code: None
论文简述: 介绍了一个有条件的GAN,它可以根据周围的环境条件来填充缺失的文本。我们从定性和定量两方面证明,与最大似然训练模型相比,这种方法可以生成更真实的文本样本。

TILE: Leveraging Grammar and Reinforcement Learning for Neural Program Synthesis.
Author: Rudy Bunel, Matthew Hausknecht, Jacob Devlin, Rishabh Singh, Pushmeet Kohli.
Paper:https://openreview.net/pdf?id=H1Xw62kRZ
Code: None
论文简述: 程序合成的任务是自动生成符合规范的程序。本文呢在监督模型上执行强化学习,目标是显式地最大化生成语义正确的程序的可能性。然后我们引入了一个训练过程,它可以直接最大化生成满足规范的语法正确的程序的概率。

TILE: Syntax-Directed Variational Autoencoder for Structured Data.
Author: Hanjun Dai, Yingtao Tian, Bo Dai, Steven Skiena, Le Song.
Paper:https://openreview.net/pdf?id=SyqShMZRb
Code: None
论文简述: 如何生成语法上和语义上都正确的数据在很大程度上是尚未解决的问题。在编译器理论的启发下,通过引入随机惰性属性,提出了一种新的语法导向变分自动编码器(SD-VAE)。该方法将离线的SDT检测转化为实时生成的指导,用于约束解码器。

TILE: Emergent Translation in Multi-Agent Communication.
Author: Jason Lee, Kyunghyun Cho, Jason Weston, Douwe Kiela.
Paper:https://openreview.net/pdf?id=H1vEXaxA-
Code: None
论文简述: 本文提出的翻译模型通过将源语言和目标语言置于一个共享的视觉模式(visual modality)中来实现这一点,并且在单词级和句子级的翻译任务中都优于几个基线。

TILE: Generating Wikipedia by Summarizing Long Sequences.
Author: Peter J. Liu, Mohammad Saleh, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, Noam Shazeer.
Paper:https://openreview.net/pdf?id=Hyg0vbWC-
Code: None
论文简述: 【文章生成】本文证明了生成英文维基百科文章可以看作是源文档的多文档摘要。本文使用提取摘要来粗略地识别突出信息,并使用神经抽象模型来生成文章。

Attention

更多自然语言处理相关知识,还请关注 AINLPer公众号,极品干货即刻送达。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。