首页 > 其他分享 >自然语言处理预训练—— 来自Transformers的双向编码器表示(BERT)

自然语言处理预训练—— 来自Transformers的双向编码器表示(BERT)

时间:2023-11-18 20:22:56浏览次数:35  
标签:BERT 编码器 自然语言 Transformers 词元 ELMo 任务 上下文

我们已经介绍了几种用于自然语言理解的词嵌入模型。在预训练之后,输出可以被认为是一个矩阵,其中每一行都是一个表示预定义词表中词的向量。事实上,这些词嵌入模型都是与上下文无关的。让我们先来说明这个性质。

 

从上下文无关到上下文敏感

ELMo(Embeddings from Language Models)是一种利用预训练的语言模型来增强下游自然语言处理任务性能的方法。下面是对上述引文中提到的关键概念的简要解释:

  1. ELMo为每个输入序列中的单词分配一个表示:ELMo使用预训练的双向长短期记忆网络(bi-directional LSTM)来学习每个单词在上下文中的表示,而不是简单地使用静态的词嵌入。

  2. ELMo将中间层表示组合为输出表示:ELMo利用从预训练的双向LSTM中获取的所有中间层表示,将它们组合起来以获得单词的最终表示。

  3. 将ELMo的表示作为附加特征添加到下游任务的现有监督模型中:ELMo的表示作为附加的特征被添加到下游任务的现有监督模型中,例如与原始词元表示(如GloVe)连接起来。

  4. 冻结了预训练的双向LSTM模型中的所有权重:在添加ELMo表示后,预训练的双向LSTM模型的权重会被冻结,不再进行微调。

  5. 利用不同任务的不同最佳模型,ELMo改进了多种自然语言处理任务的技术水平:ELMo的表示可以结合现有的监督模型,从而提高多种自然语言处理任务的性能,如情感分析、自然语言推断、语义角色标注、共指消解、命名实体识别和问答等。

总的来说,ELMo的核心思想是通过结合上下文信息和预训练语言模型的表示,来丰富单词的表征,从而提高各种自然语言处理任务的性能。这种方法已经在多个任务中取得了显著的改进,成为自然语言处理领域的重要技术之一。

 

从特定于任务到不可知任务

尽管ELMo显著改进了各种自然语言处理任务的解决方案,但每个解决方案仍然依赖于一个特定于任务的架构。然而,为每一个自然语言处理任务设计一个特定的架构实际上并不是一件容易的事。GPT(Generative Pre Training,生成式预训练)模型为上下文的敏感表示设计了通用的任务无关模型 (Radford et al., 2018)。GPT建立在Transformer解码器的基础上,预训练了一个用于表示文本序列的语言模型。当将GPT应用于下游任务时,语言模型的输出将被送到一个附加的线性输出层,以预测任务的标签。与ELMo冻结预训练模型的参数不同,GPT在下游任务的监督学习过程中对预训练Transformer解码器中的所有参数进行微调。GPT在自然语言推断、问答、句子相似性和分类等12项任务上进行了评估,并在对模型架构进行最小更改的情况下改善了其中9项任务的最新水平。

然而,由于语言模型的自回归特性,GPT只能向前看(从左到右)。在“i went to the bank to deposit cash”(我去银行存现金)和“i went to the bank to sit down”(我去河岸边坐下)的上下文中,由于“bank”对其左边的上下文敏感,GPT将返回“bank”的相同表示,尽管它有不同的含义。

 

BERT:把两个最好的结合起来

如我们所见,ELMo对上下文进行双向编码,但使用特定于任务的架构;而GPT是任务无关的,但是从左到右编码上下文。BERT(来自Transformers的双向编码器表示)结合了这两个方面的优点。它对上下文进行双向编码,并且对于大多数的自然语言处理任务 (Devlin et al., 2018)只需要最少的架构改变。通过使用预训练的Transformer编码器,BERT能够基于其双向上下文表示任何词元。在下游任务的监督学习过程中,BERT在两个方面与GPT相似。首先,BERT表示将被输入到一个添加的输出层中,根据任务的性质对模型架构进行最小的更改,例如预测每个词元与预测整个序列。其次,对预训练Transformer编码器的所有参数进行微调,而额外的输出层将从头开始训练。 图14.8.1 描述了ELMo、GPT和BERT之间的差异。

 

BERT进一步改进了11种自然语言处理任务的技术水平,这些任务分为以下几个大类:(1)单一文本分类(如情感分析)、(2)文本对分类(如自然语言推断)、(3)问答、(4)文本标记(如命名实体识别)。从上下文敏感的ELMo到任务不可知的GPT和BERT,它们都是在2018年提出的。概念上简单但经验上强大的自然语言深度表示预训练已经彻底改变了各种自然语言处理任务的解决方案。 

 

 

输入表示

 BERT选择Transformer编码器作为其双向架构。在Transformer编码器中常见是,位置嵌入被加入到输入序列的每个位置。然而,与原始的Transformer编码器不同,BERT使用可学习的位置嵌入。总之, 图14.8.2表明BERT输入序列的嵌入是词元嵌入、片段嵌入和位置嵌入的和。

 

预训练任务

BERTEncoder的前向推断给出了输入文本的每个词元和插入的特殊标记“<cls>”及“<seq>”的BERT表示。接下来,我们将使用这些表示来计算预训练BERT的损失函数。预训练包括以下两个任务:掩蔽语言模型和下一句预测。

 

掩蔽语言模型

标签:BERT,编码器,自然语言,Transformers,词元,ELMo,任务,上下文
From: https://www.cnblogs.com/yccy/p/17841033.html

相关文章

  • 动量编码器
    自监督学习自监督学习属于无监督学习范式的一种,不需要人工标注的类别信息,直接利用数据本身作为监督信息。自监督学习分为自监督生成式学习和自监督对比学习。自监督生成式学习的方法以图片为例,自监督学习可以是将图片的位置信息,旋转角度,以及图片在视频帧中的顺序作为标签。比......
  • bert双塔
    importsysimporttensorflowastffromkerasimportInput,Modelimportkeras.layersaslayersfromkeras.layersimportDotfromtransformersimportTFAutoModel,AutoTokenizerfromsklearn.model_selectionimporttrain_test_splitimportnumpyasnpimportpandas......
  • 机器学习——编码器和解码器架构
    正如我们在 9.5节中所讨论的,机器翻译是序列转换模型的一个核心问题,其输入和输出都是长度可变的序列。为了处理这种类型的输入和输出,我们可以设计一个包含两个主要组件的架构:第一个组件是一个编码器(encoder):它接受一个长度可变的序列作为输入,并将其转换为具有固定形状的编码......
  • 使用Bert模型实现embedding嵌入
    参考文献:保姆级教程,用PyTorch和BERT进行文本分类-知乎(zhihu.com)模型地址:https://huggingface.co/bert-base-casedfromtransformersimportBertTokenizer,BertModeltokenizer=BertTokenizer.from_pretrained('bert-base-cased')model=BertModel.from_pretrained("......
  • Cost Aggregation with Transformers for Sparse Correspondence-读书笔记
    CostAggregationwithTransformersforSparseCorrespondence:2022背景:该论文结合了SuperGlue和CATs,将里面所有手工制作的部分都代替了。将CATs引入该模型,用Transformer取代手工制作的成本聚合方法,用于具有自关注层全局接受域的可学习成本聚合。(PS:成本聚合:成本聚合是指在立......
  • 申报软件著作权时,用vscode编码器统计代码行数(转载)
    原文地址https://blog.csdn.net/michiko98/article/details/133743417在一些特殊情况中我们需要计算代码的行数,这时我们就可以借助vscode的VS CodeCounter插件进行统计。第一步:选择VS Code Counter进行安装。(安装完毕有条件的可以重启编码器)。第二步:快捷键ctrl+shift+p进......
  • 什么是Bert
    论文:https://arxiv.org/abs/1810.04805 定义:BERT(BidirectionalEncoderRepresentationsfromTransformers)是一种自然语言处理(NLP)中的预训练模型,由Google在2018年提出。BERT的关键创新是使用双向(bidirectional)的Transformer编码器来学习上下文中的单词表示,而不是传统的单向模......
  • 论文阅读:Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point M
    Point-BERT:Pre-training3DPointCloudTransformerswith MaskedPointModelingPoint-BERT:基于掩码建模的点云自注意力模型预训练摘要我们提出了Point-BERT,一个学习自注意力的新范式,将BERT[8]的概念推广到三维点云。受BERT的启发,我们设计了一个掩蔽点建模(MPM)任务来预训练点云......
  • 2023CVPR_Efficient Frequency Domain-based Transformers for High-Quality Image De
    一.Motivation1.Transformer在解决全局表现很好,但是复杂度很高,主要体现在QK的乘积:(Wenotethatthescaleddot-productattentioncomputationisactuallytoestimatethecorrelationofonetokenfromthequeryandallthetokensfromthekey)在self-attention中......
  • 轻松理解 Transformers (3): Feed-Forward Layer部分
    编者按:随着人工智能技术的不断发展Transformer架构已经成为了当今最为热门的话题之一。前馈层作为Transformer架构中的重要组成部分,其作用和特点备受关注。本文通过浅显易懂的语言和生活中的例子,帮助读者逐步理解Transformers中的前馈层。本文是Transformers系列的第三篇。作者的观......