首页 > 其他分享 >【LLM】人工智能应用构建的十大预训练NLP语言模型

【LLM】人工智能应用构建的十大预训练NLP语言模型

时间:2024-01-08 16:03:09浏览次数:29  
标签:NLP 令牌 语言 训练 BERT 人工智能 模型 LLM


【LLM】人工智能应用构建的十大预训练NLP语言模型_大语言模型

在人工智能领域,自然语言处理(NLP)被广泛认为是阅读、破译、理解和理解人类语言的最重要工具。有了NLP,机器可以令人印象深刻地模仿人类的智力和能力,从文本预测到情感分析再到语音识别。

什么是自然语言处理?

【LLM】人工智能应用构建的十大预训练NLP语言模型_语言模型_02

语言模型在NLP应用程序的开发中起着至关重要的作用。然而,从头开始构建复杂的NLP语言模型是非常耗时的。出于这个原因,人工智能和机器学习的研究人员和开发人员对预先训练的语言模型深信不疑。迁移学习是一种用于训练模型的技术,该模型使用在另一个数据集上训练的数据集来执行任务。然后使用一个新的数据集来重新调整模型的用途,以执行不同的NLP功能。

经过预训练的模型:为什么它们有用?

【LLM】人工智能应用构建的十大预训练NLP语言模型_语言模型_03

然后,我们可以使用预训练的模型来解决我们自己的NLP问题,而不是从头开始构建模型。

预先训练的模型是为解决特定问题而设计的,需要进行一些微调,因此与编写新的语言模型相比,它们节省了大量时间和计算资源。

NLP语言模型根据其功能有几个预先训练的类别。

1. BERT (Bidirectional Encoder Representations from Transformers)

【LLM】人工智能应用构建的十大预训练NLP语言模型_LLM_04

BERT是谷歌开发的一种用于NLP预训练的技术。对于语言理解,它依赖于一种新的神经网络架构,称为Transformer。该技术是为了解决神经机器翻译或序列转导的问题而开发的。因此,它非常适合于将输入序列转换为输出序列的任何任务,例如语音识别、文本到语音的转换等。

最初,转换器包含两种机制:一个是读取文本输入的编码器,另一个是创建预测的解码器。通过BERT,可以创建语言模型。到目前为止,只使用了编码器机制。

使用BERT算法可以有效地执行11个NLP任务。一个由BookCorpus的8亿个单词和维基百科的25亿个单词组成的数据集被用于训练。BERT的效率体现在谷歌搜索上,这是最好的例子之一。BERT用于其他谷歌应用程序中的文本预测,如谷歌文档和Gmail智能合成。

2. RoBERTa (Robustly Optimized BERT Pre-training Approach)

【LLM】人工智能应用构建的十大预训练NLP语言模型_LLM_05

RoBERTa方法是一种预训练自监督自然语言处理算法的优化方法。通过学习和预测有意隐藏的文本部分,该系统基于BERT的语言掩蔽策略建立了语言模型。

在RoBERTa中,参数会被修改。例如,在训练时使用更大的小批量,下一句不再是BERT中的预训练目标,等等。RoBERTa等预训练模型擅长一般语言理解评估(GLUE)基准的所有任务,非常适合NLP训练任务,如识别问题、分析对话和分类文档。

3.OpenAI的GPT-3

【LLM】人工智能应用构建的十大预训练NLP语言模型_大语言模型_06

使用GPT-3,您可以进行翻译、回答问题、创作诗歌、完成完形填空任务,以及即时解读单词。由于其最近的进步,GPT-3还用于生成代码和撰写新闻文章。

GT-3可以管理不同单词之间的统计信息。该模型中有超过1750亿个参数,这些参数是从45 TB的文本中学习的。因此,它是目前最大的预训练自然语言处理模型之一。

GPT-3的好处是可以在不需要微调的情况下处理下游任务。该模型可以使用“文本输入,文本输出”API重新编程,该API允许开发人员编写指令。

4. ALBERT

【LLM】人工智能应用构建的十大预训练NLP语言模型_语言模型_07

随着预先训练的语言模型变得越来越大,下游任务变得更加准确。然而,模型大小的增加导致训练时间变慢,以及GPU/TPU内存限制。谷歌开发了一个轻量级的BERT(来自变压器的双向编码器表示)来解决这个问题。使用了两种技术来减少其参数:

参数化嵌入:这里,隐藏层和词汇嵌入是分别测量的。

跨层共享参数:这可以防止参数数量随着网络的增长而增加。

通过使用这些技术,降低了内存消耗,提高了模型的训练速度。由于ALBERT在句子顺序预测方面的自我监督损失,这种损失是关于句子间连贯性的BERT限制。

5.XLNet

【LLM】人工智能应用构建的十大预训练NLP语言模型_自然语言处理_08

使用去噪自动编码的语言模型,如BERT,比使用自回归方法的模型性能更好。这就是为什么有XLNet的原因,它使用自回归预训练。它允许学生学习双向上下文,并使用自回归预训练克服了BERT的局限性。许多任务,包括自然语言推理、文档排名、情感分析、问答等,都被认为优于XLNet的BERT。

6. OpenAI’s GPT2

【LLM】人工智能应用构建的十大预训练NLP语言模型_大语言模型_09

除了在特定任务数据集上使用监督学习来完成诸如问答、机器翻译、阅读理解和摘要之类的任务外,其他自然语言处理任务通常也使用监督学习。在OpenAI的GPT2中,在一个名为WebText的数百万网页的新数据集上训练,即使没有明确的监督,语言模型也开始学习这些任务。该模型处理了各种各样的任务,并在各种各样的工作中产生了有希望的结果。

7.StructBERT

【LLM】人工智能应用构建的十大预训练NLP语言模型_大语言模型_10

预训练的语言模型,如BERT(及其稳健优化版本RoBERTa),在自然语言理解(NLU)中获得了大量关注,在一系列NLU任务中实现了无与伦比的准确性,如自然语言推理、情感分类、问答和语义文本相似性。通过将语言结构纳入预训练,StructBERT将BERT扩展到一个基于Elman线性化探索工作的新模型。通过结构预训练,StructBERT系统在GLUE基准测试中产生了令人惊讶的结果(优于所有已发表的模型),SQUAD v1.1 F1得分为93.0,SNLI准确率为91.7。除了回答问题、情绪分析、文档摘要外,StructBERT还可以帮助完成各种NLP任务。

8. T5 (Text-to-Text Transfer Transformer)

【LLM】人工智能应用构建的十大预训练NLP语言模型_大语言模型_11

它已经成为自然语言处理(NLP)中一种强大的技术,可以先在数据丰富的任务上训练模型,然后为下游任务进行微调。迁移学习的有效性导致了方法、方法和实践的多样性。为了在NLP中为迁移学习设定一个新的标准,谷歌提出了一种统一的方法。因此,他们建议将NLP问题视为文本对文本问题。这样的框架允许不同的任务——摘要、情绪分析、问答和机器翻译——使用相同的模型、目标、训练过程和解码过程。一个名为Text to Text Transfer Transformer(T5)的模型使用网络抓取数据进行训练,以在许多NLP任务中得出最先进的结果。

9. ELECTRA (Efficiently Learning an Encoder that Classifies Token Replacements Accurately)

【LLM】人工智能应用构建的十大预训练NLP语言模型_LLM_12

掩蔽语言建模(MLM)预训练方法使用掩蔽来替换输入中的一些令牌,然后训练模型以恢复令牌的原始含义。当应用于下游NLP任务时,它们往往会产生良好的结果,但通常需要大量的计算能力。专家们提出了一种称为替代令牌检测的替代方案,它更具样本效率。他们的方法用来自小型发电机网络的合理替代品取代了一些代币,而不是屏蔽输入。然后,专家们训练一个判别模型,以识别损坏输入中的每个令牌是否被生成器样本替换,而不是训练一个预测损坏令牌的原始身份的模型。

可以用T5中的所有输入令牌来替换屏蔽掉的输入令牌子集。生成替换令牌的生成器以最大似然进行训练,使其不具有对抗性,尽管与GAN相似。ELECTRA在计算上是高效的。

10. DeBERTa (Decoding-enhanced BERT with disentangled attention)

【LLM】人工智能应用构建的十大预训练NLP语言模型_LLM_13

DeBERTa比BERT有两个主要改进,即增强的掩码解码系统和消除纠缠的注意力。通过对令牌/单词的内容和相对位置进行编码,DeBERTa将它们表示为两个向量。虽然DeBERTa的自我关注机制沿着内容到内容、内容到位置和位置到内容的路线运行,但BERT的自我关注仅由前两个元素组成。为了对令牌序列中的相对位置进行全面建模,作者提出还需要位置到内容的自我关注。此外,DeBERTa具有增强的掩码解码器,它为解码器提供了令牌/字的绝对和相对位置。在SuperGLUE基准测试中,DeBERTa的放大变体首次实现了比人类更好的性能。截至撰写本文时,德贝塔合奏团在SuperGLUE排名第一。

很明显,经过预训练的nlp语言模型有很多优点。这些模型对开发人员来说是一个很好的资源,因为它们可以帮助他们实现精确的输出,节省资源,并在人工智能应用程序开发上花费时间。

你如何选择对你的人工智能项目最有效的NLP语言模型?这取决于几个因素,包括项目的规模、数据集的类型和使用的培训方法。如果您想了解哪种NLP语言模型将帮助您实现最大准确性并缩短项目上市时间,请联系我们的人工智能专家。

这可以通过与他们建立免费咨询会议来实现,在此期间,他们可以指导您开发基于人工智能的应用程序的正确方法。

自我介绍

  • 做一个简单介绍,酒研年近48 ,有20多年IT工作经历,目前在一家500强做企业架构.因为工作需要,另外也因为兴趣涉猎比较广,为了自己学习建立了三个博客,分别是【全球IT瞭望】,【架构师研究会】和【开发者开聊】,有更多的内容分享,谢谢大家收藏。
  • 企业架构师需要比较广泛的知识面,了解一个企业的整体的业务,应用,技术,数据,治理和合规。之前4年主要负责企业整体的技术规划,标准的建立和项目治理。最近一年主要负责数据,涉及到数据平台,数据战略,数据分析,数据建模,数据治理,还涉及到数据主权,隐私保护和数据经济。 因为需要,比如数据资源入财务报表,另外数据如何估值和货币化需要财务和金融方面的知识,最近在学习财务,金融和法律。打算先备考CPA,然后CFA,如果可能也想学习法律,备战律考。
  • 欢迎爱学习的同学朋友关注,也欢迎大家交流。全网同号【架构师研究会】

【LLM】人工智能应用构建的十大预训练NLP语言模型_人工智能_14

欢迎收藏  【全球IT瞭望】,【架构师酒馆】和【开发者开聊】.

标签:NLP,令牌,语言,训练,BERT,人工智能,模型,LLM
From: https://blog.51cto.com/jiagoushipro/9146260

相关文章

  • 【LLM】2023年大型语言模型训练
    2022年底,大型语言模型(LLM)在互联网上掀起了风暴,OpenAI的ChatGPT在推出5天后就达到了100万用户。ChatGPT的功能和广泛的应用程序可以被认可为GPT-3语言模型所具有的1750亿个参数尽管使用像ChatGPT这样的最终产品语言模型很容易,但开发一个大型语言模型需要大量的计算机科学知识、时间......
  • 【LLM】大型语言模型:2023年完整指南
    Figure1:Searchvolumesfor“largelanguagemodels”近几个月来,大型语言模型(LLM)引起了很大的轰动(见图1)。这种需求导致了利用语言模型的网站和解决方案的不断开发。ChatGPT在2023年1月创下了用户群增长最快的记录,证明了语言模型将继续存在。谷歌对ChatGPT的回应Bard于2023年2月......
  • 数字化的人工智能:人脸识别与生物识别技术的发展
    1.背景介绍人工智能(ArtificialIntelligence,AI)是一门研究如何让计算机模拟人类智能的科学。人工智能的目标是让计算机能够理解自然语言、进行逻辑推理、学习自主决策、进行视觉识别和其他人类智能的功能。人工智能的发展历程可以分为以下几个阶段:1.1早期人工智能(1950年代-1970年......
  • 业务智能的未来:人工智能与AI的融合
    1.背景介绍随着数据的爆炸增长,人们对于数据的理解和利用也日益重视。业务智能(BusinessIntelligence,BI)成为了企业管理和决策的重要工具。然而,传统的BI只能对历史数据进行分析和报告,而人工智能(ArtificialIntelligence,AI)和机器学习(MachineLearning)则可以帮助企业预测未来趋势,自动发......
  • 元学习与人工智能伦理的关系:如何平衡效率与道德
    1.背景介绍元学习(Meta-learning)是一种学习如何学习的学习方法,它旨在帮助机器学习模型在新任务上更快地学习。在过去的几年里,元学习已经取得了显著的进展,并在多个领域得到了广泛应用,如自然语言处理、计算机视觉和推荐系统等。然而,随着元学习在实际应用中的普及,人工智能社区开始关注......
  • 赋能开发者实现LLMOps全流程
    在人工智能领域,大模型已经成为引领技术革新的重要驱动力。为了更好地赋能开发者,百度智能云千帆大模型平台近日宣布推出SDK版本,并实现开源发布。通过使用该SDK,开发者可以轻松接入并调用百度智能云千帆大模型平台的能力,实现LLMOps全流程。LLMOps全流程是指从数据收集、标注、预处理、......
  • 人工智能时代的大模型算法
    文心大模型4.0是百度最新推出的一代知识增强大语言模型,它是基于深度学习技术构建的,通过与海量数据结合,能够为人工智能应用提供强大的算法支持。本文将详细介绍文心大模型4.0的核心技术、应用场景和优势,以及如何使用它来提高人工智能应用的性能。一、文心大模型4.0的核心技术文心大......
  • 鱼类识别Python+深度学习人工智能+TensorFlow+卷积神经网络算法
    一、介绍鱼类识别系统。使用Python作为主要编程语言开发,通过收集常见的30种鱼类('墨鱼','多宝鱼','带鱼','石斑鱼','秋刀鱼','章鱼','红鱼','罗非鱼','胖头鱼','草鱼','银鱼','青鱼','马头鱼'......
  • 通往人工智能的 Go 之路
    Agency该库旨在为那些希望通过清晰、高效且符合Go语言惯例的方法来探索大型语言模型(LLMs)和其他生成式人工智能的开发人员而设计。特点纯Go语言:快速、轻量级,静态类型,无需涉及Python或JavaScript编写清晰的代码并遵循清晰的架构,将业务逻辑与具体实现分离通过实现简单接口轻松......
  • LLM增强LLM;通过预测上下文来提高文生图质量;Spikformer V2;同时执行刚性和非刚性编辑的
    文章首发于公众号:机器感知LLM增强LLM;通过预测上下文来提高文生图质量;SpikformerV2;同时执行刚性和非刚性编辑的通用图像编辑框架LLMAugmentedLLMs:ExpandingCapabilitiesthroughComposition本文研究了如何高效地组合现有的基础模型以实现新功能的问题,文章提出了CALM(Comp......