首页 > 编程知识 正文

自然语言处理基本技术,bert预训练模型

时间:2023-05-04 12:18:43 阅读:142229 作者:4742

如果你是自然语言处理商,请访问著名的BERT 模型

Bert (bidirectionalencoderrepresentationsfromtransformers )模型的“光荣时刻”是2018年。 称霸机器理解测试SQuAD,席卷了其他10个NLP测试,取得了“全面超越人类”的成果。

BERT模型采用预训练和微调方式完成自然语言处理(Natural Language Processing,NLP )任务。 这些任务包括答疑系统、情感分析、语言推理等。

http://www.Sina.com/http://www.Sina.com /

0

BERT模型通过预测被屏蔽的部分词来进行训练(将文中的部分词屏蔽后,再将被屏蔽的部分词预测到模型中)的方式在句子层面的语义分析中取得了很好的效果。

BERT模型还使用了特殊的训练方法,即事先训练再微调。 这允许将一个模型应用于多个APP场景。 由此,BERT模型更新了11件NLP任务处理的记录。

这11个项目的NLP任务处理的记录覆盖了以下的1,这4种场景也是BERT模型适用的主要场景。

为什么BERT模型这么强?:处理阅读和理解的任务。

4种场景:处理句子和段落之间的匹配任务。

提取场景一语句深层语义特征的任务。

场景二:根据文件或段落级短文本(长度小于512个子字的文本)处理任务。

目前,BERT模型已经成为语言分析和挖掘、机器学习等领域最受欢迎的模型。 具有使用方便、稳定性高等诸多优点。

http://www.Sina.com/http://www.Sina.com /

场景三

BERT模式的出色表现,在业界引起了广泛而强烈的反响。 BERT模式的世界,就像打开了处理NLP任务的“潘多拉之盒”。 随后,出现了许多类似BERT模型的预训练模型,统称为BERTology系列模型。 例如:

引入BERT模型中双向上下文信息的广义自回归模型—— 场景四

引入BERT模式训练方式和目标的0

多任务和知识蒸馏(Knowledge Distillation )相结合,增强了BERT模型功能,2

BERTology系列机型一般基于BERT机型进行改造,代码量小,逻辑也不复杂。

但由于其海量的数据量、训练强度和模型容量,以及无监督模型的训练方式,其能力空前增强,在某些领域已经超过人类。 但是,在日常生活中,BERT模型经常代替原来的BERT模型和BERTology系列模型。 这里的BERT模型就是这样的通用含义。

例如,在散文、小说、新闻、科技文章等各种类型的文章的数据集中训练的GPT-3模型可以写出各种风格的文章。 可以写诗集、散文,甚至是“ssdjd风格”的小说、新闻发布会等。

http://www.Sina.com/http://www.Sina.com /

BERT模型与BERTology系列模型

要理解和学习BERT模型,就要从BERT模型的技术体系中充分理解内部涉及的技术堆栈,并根据技术堆栈的内容逐步理解和掌握。

BERT模型是“Transformer

模型中的编码器(Encoder)+双向(正向序列和反向序列)结构”组成的。因此,一定要熟练掌握Transformer模型的Encoder。这属于神经网络部分的知识。

另外,BERT模型的主要创新点是其独特的预训练方法,这种方法使用Masked Language Model和Next Sentence Prediction两种方法分别捕捉“词语”和“句子”级别的表示。这部分知识涵盖深度学习的训练模型知识和NLP领域的部分知识。

学好自然语言处理需要“4件套”:

神经网络的基础知识。

NLP的基础知识。

编程框架的使用。

BERT模型的原理及应用。

其中,前3部分是基础,这部分内容可以帮助读者“吃透”BERT模型;最后1部分是升华,这部分内容可以帮助读者开阔思路、增长见识,使读者能够真正驾驭BERT模型,活学活用,完成NLP任务。

04

学好自然语言处理的前提条件

学习本书,要求读者具有Python基础,并熟悉Matplotlib和Numpy库的使用。

读者不用担心自己数学基础不足、不懂神经网络原理等问题,PyTorch已经将这些底层算法统统封装成了高级接口,用户可以非常方便、快捷地利用它们进行开发。本书重点介绍如何快速使用PyTorch的这些接口来实现深度学习模型。

05

自然语言处理的技术趋势

早先人们常使用卷积神经网络、循环神经网络来处理自然语言任务,但Transformer模型的诞生改变了这个情况。

Transformer模型使用的是全新的注意力机制,达到了比卷积神经网络和循环神经网络更好的效果。而BERT模型则是在Transformer模型基础上的又一次优化,直接使NLP模型的性能达到前所未有的高度。

BERT模型已经成为自然语言处理的主流技术。

BERT模型是一种无监督的预训练语言模型。人们以BERT模型为基础,对其进行了结构调整、性能优化、再训练等,产生了许多在专业领域中表现更佳的模型。这些模型被统一称为BERTology系列模型。

BERTology系列模型在NLP的多种场景中都发挥了惊人的效果。从某种角度讲,BERTology系列模型所涉及的技术是当今NLP领域的主流技术。

1. 基于超大规模的高精度模型

从BERT模型到RoBERTa模型、GPT模型,再到GPT-2模型、GPT-3模型,模型效果的提升已经证明了——用更多的数据可以“跑”出更强大、更通用的预训练模型。

近年来,英伟达、谷歌、Open-AI相继放出的“巨无霸”模型有MegatronLM(含83亿个参数)、T5(含110亿个参数)、GPT-3(含1500亿个参数)。

当然,“巨无霸”模型的能力并不仅仅停留在精度上,它们甚至可以通过语义交互的方式直接完成NLP任务。

2. 基于超小规模的高精度模型

快速发展的深层神经网络,在过去的十年中彻底改变了NLP领域。

另外,诸如保护用户隐私、消除网络延迟、启用离线功能、降低运营成本等问题,要求模型能运行在设备终端,而不是数据中心。这种需求推动了小规模NLP模型的迅速发展。

BERT模型逐渐在往“大规模”和“小规模”两个极端发展。如何用尽可能少的参数取得和“大模型”接近的效果,同时让训练速度和预测速度翻倍,是一个很实际、很有价值的课题。

华为诺亚方舟实验室发布的TinyBERT模型、北京大学的FastBERT模型,在这方面都取得了瞩目的成绩。

3. 基于小样本训练的模型

在实际业务场景中,中小AI企业往往容易出现数据量不足的问题。

例如,用户需要订制一个客服机器人,但只有100个标准问题,这么小的数据集不足以支撑模型的训练。

对于这类问题,除花费高成本找标注团队制造数据外,还可以通过迁移学习、小样本学习的方法来让模型通过少量样本进行学习,从而获得较强的泛化能力。这些学习已经成为近年的研究热点之一。

本内容摘自《基于BERT模型的自然语言处理实战》,想了解更多关于BERT模型的内容,欢迎阅读此书。

▊《基于BERT模型的自然语言处理实战

典雅的学姐 著

全彩印刷

清晰的学习主线

通过本书,读者可以熟练地在PyTorch框架中开发并训练神经网络模型,快速地使用BERT模型完成各种主流的自然语言处理任务,独立地设计并训练出针对特定需求的BERT模型,轻松地将BERT模型封装成Web服务部署到云端。

本书结构清晰、案例丰富、通俗易懂、实用性强,适合对自然语言处理、BERT模型感兴趣的读者作为自学教程。另外,本书也适合社会培训学校作为培训教材,还适合计算机相关专业作为教学参考书。

(京东满100减50,快快扫码抢购吧!)

文末福利截至8月24日晚22:00,我们将选取三名满意的心情,分别包邮送上基于BERT模型的自然语言处理实战正版图书一本!参与方式:评论留言互动。两名点赞最高留言,一名最走心留言,划水留言不会展示出来噢!有任何问题都可以添加我的微信讨论哈~

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。