首页 > 编程知识 正文

自然语言处理综述,自然语言处理应用案例

时间:2023-05-03 14:29:25 阅读:142236 作者:3328

引言自然语言处理被誉为机器学习皇冠上的明珠,这体现了自然语言处理的重要性及其难度。 目前,自然语言处理技术主要分为基础和应用基础,包括词向量表示和分词技术的应用,主要包括文本分类信息提取和其他应用,如知识图谱的构建。

狭义的自然语言处理问题包括文本分类、自动答疑、舆情监测等,广义的自然语言处理问题还包括包含自然语言的文本、语音、视频等。

认为自然语言处理的主要研究价值在于能够实现比较顺畅的人机交互,以及在一定程度上实现机器的思维过程。

对于词向量词的矢量化表示,传统上是人为定义词之间的关系来构成词网,从而得到词向量,但词网的定义过于主观,需要大量的人力,无法适应多种语言环境虽然可以将一定语言环境的单词进行词袋编码,用自己的热代码表示,但是向量变得过于稀疏,不容易计算和保存。 这有两种改善方法。

这有两种改善方法。 一种是在得到语言的稀疏表示后再训练神经网络的过程中增加顶层。 这类词的嵌入层与神经网络一起训练,这一层表示由输入词稀疏向量浓缩输出的向量,随着这一训练的进行,慈心如层的输出符合该词在语境中的意义。

一种常用的方法是word2vec算法,该算法的基本假设是——个词的语义可以根据其附近的词汇来判断。 该算法针对不同的词汇生成随机表示的向量矩阵,将损失函数设定为每个单词预测周围词汇的概率成功概率的最大值。 由于可以证明将两个词向量置换相乘的结果与两个词向量之间的关联度有关,所以利用这样的关联度计算一个词汇与其周围词汇的关联性,将这种关联性作为损失函数。 通过不断训练损失函数的优化,提高这种相关性,最终可以得到比较理想的语向量表示。

Seq2seq模型自然语言处理首先用于机器翻译问题,一种常用的模型是seq2seq模型,该模型由两个循环神经网络组成。 现首先简述循环神经网络。

循环神经网络是在完全连接普通神经网络的基础上,将上次的输出结果和这次的输入按一定的权重混合作为这次的输入,尽管每次输入都使用相同的神经网络,但是到目前为止所有输入的这种一般的循环神经网络模型也起到seq2seq的编码器的作用,通过不断输入一句话中的单词向量,可以得到编码后的句子向量。

Seq2seq模型的解码器也是循环神经网络的基础。 他把得到的句子向量作为最初的输入,把这个具体和各个输出结果混合作为下一个输入指导。 输出结果每次都是一个词向量,可以通过找到与该词对应的词得到输出结果。 输出的词向量与标志相对应,停止到一句话结束的词向量。

在该模型的训练过程中,通常采用格式化(force teaching )方法,即,对解码器来说,每次的输入是期望的、正确的输出而不是前一次的输出,从而可以防止在训练初始阶段解码器的输出过度失真。 这是因为在训练初始阶段,解码器神经网络输出期待的结果的概率较低

在训练该模型的过程中,一般是将贪婪的想法,也就是下一个输出为目标输出的概率最大化来优化解码器参数,这容易进入文字的陷阱,通常使用前k次来预测下一个输出,或者将损失函数设定为完整输出整体的误差之和

文本分类和自动摘要一般来说,在得到聚合或具体表达后,文本分类可以通过普通的神经网络进行,但自动摘要往往基于语言段中的词数统计和一些人工评价标准。 另一方面,关于更智能的文本分类和自动摘要技术,目前还在研究中。 我认为这是光靠感知神经网络无法实现的。

当今主要研究发现和学者目前自然语言处理的主要研究方向仍然是自动答疑、自动摘要等,可应用于医疗、心理、新闻等领域。 但是,使用了新进提出的transformer、BERT、attention等技术,特别是使用了巨大的模型。

一些学者:

http://www.Sina.com/http://www.Sina.com /对数据提取主要研究基于互联网的自然语言数据提取; 我个人对3358www.Sina.com/更感兴趣。 关于鞍点的讨论、GAN模型和软注意力机制都是3358www.Sina.com/及其研究伙伴的成果。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。