首页 > 其他分享 >聊聊HuggingFace Transformer

聊聊HuggingFace Transformer

时间:2023-08-27 10:44:10浏览次数:50  
标签:pipeline tokenizer 模型 Transformer HuggingFace 聊聊 Model 文本 输入

概述

参见:聊聊HuggingFace

项目组件

一个完整的transformer模型主要包含三部分:Config、Tokenizer、Model。

Config

用于配置模型的名称、最终输出的样式、隐藏层宽度和深度、激活函数的类别等。
示例:

{
  "architectures": [
    "BertForMaskedLM"
  ],
  "attention_probs_dropout_prob": 0.1,
  "gradient_checkpointing": false,
  "hidden_act": "gelu",
  "hidden_dropout_prob": 0.1,
  "hidden_size": 768,
  "initializer_range": 0.02,
  "intermediate_size": 3072,
  "layer_norm_eps": 1e-12,
  "max_position_embeddings": 512,
  "model_type": "bert",
  "num_attention_heads": 12,
  "num_hidden_layers": 12,
  "pad_token_id": 0,
  "position_embedding_type": "absolute",
  "transformers_version": "4.6.0.dev0",
  "type_vocab_size": 2,
  "use_cache": true,
  "vocab_size": 30522
}

Tokenizer

将纯文本转换为编码的过程(注意:该过程并不会生成词向量)。由于模型(Model)并不能识别(或很好的识别)文本数据,因此对于输入的文本需要做一层编码。在这个过程中,首先会将输入文本分词而后添加某些特殊标记([MASK]标记、[SEP]、[CLS]标记),比如断句等,最后就是转换为数字类型的ID(也可以理解为是字典索引)。
示例:

pt_batch = tokenizer(
    ["We are very happy to show you the 

标签:pipeline,tokenizer,模型,Transformer,HuggingFace,聊聊,Model,文本,输入
From: https://www.cnblogs.com/zhiyong-ITNote/p/17659970.html

相关文章

  • GPT之路(四) 神经网络架构Transformer工作原理
     原文:WhatAreTransformerModelsandHowDoTheyWork?Transformer模型是机器学习中最令人兴奋的新发展之一。它们在论文AttentionisAllYouNeed中被介绍。Transformer可以用于写故事、文章、诗歌,回答问题,翻译语言,与人类聊天,甚至可以通过对人类来说很难的考试!但是它们到底......
  • swin transformer
    摘要核心1.本文提出一种可以适用于多种任务的backbone->swintransformer2.Transformer迁移到CV中有两点挑战->物体尺度不一,图像分辨率大3.为了解决尺度不一的问题,SwinTransformer使用了分层的结构(Pyramid)4.为了能够在高分辨率上运行,SwinTransformer限制了attention的计算范围......
  • 使用 AutoGPTQ 和 transformers 让大语言模型更轻量化
    大语言模型在理解和生成人类水平的文字方面所展现出的非凡能力,正在许多领域带来应用上的革新。然而,在消费级硬件上训练和部署大语言模型的需求也变得越来越难以满足。......
  • 聊聊ChatGPT
    ChatGPT是一种基于机器学习和自然语言处理技术的聊天机器人,它可以模拟人类对话,回答用户提出的问题或以用户的方式进行对话。ChatGPT的核心是OpenAI的GPT(GenerativePre-trainedTransformer)模型,它是一种预训练的语言模型,可以通过对大规模文本数据进行训练,从而实现对文本的深层理解......
  • 聊聊超卖
    聊聊超卖焦点: 这篇文章,主要是想聊一聊“超卖”这个场景,并且借此,串一下整个电商的交易流程,加深对电商交易的认真。电商交易流程我们先看下电商的交易流程:不管是同城外卖场景,还是异城的的传统电商购物,主要流程都不会有太多区别。商品筛选交易的实体是商品,而商品筛选是最......
  • 质效提升 | 聊聊QA与业务测试
    上面一篇文章《质效提升|QA不做业务需求测试,你怎么看》主要讨论的是QA和业务需求测试相关的问题,文章发出后收到了很多小伙伴的反馈,这里把很多有意义的反馈放在下面,希望对你有用。 约翰同学:QA和测试的职能不同吧。很多时候混淆了?scmroad:是的,对于国外来说QA和Tester,区别很大......
  • transformer模型首次体验代码
    首先是安装python,更新pip源到清华源。安装transformerpipinstalltransformer安装jupyterlab,也简单一行pipinstalljupyterlab现在不想用anaconda了,因为国内没有源了,国外的又慢。直接用pip吧。然后开始体验之旅吧:打开终端,输入:jupyterlab会弹出一个web页面,代开后......
  • 使用 Transformers 优化文本转语音模型 Bark
    ......
  • Transformer计算公式
    LLMinferenceworkflowGenerativeInference.AtypicalLLMgenerativeinferencetaskconsistsoftwostages:i)theprefillstagewhichtakesapromptsequencetogeneratethekey-valuecache(KVcache)foreachtransformerlayeroftheLLM;andii)thed......
  • bert,Bidirectional Encoder Representation from Transformers
    BERT的全称是BidirectionalEncoderRepresentationfromTransformers,是Google2018年提出的预训练模型,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了MaskedLM和NextSentencePrediction两种方法分别捕捉词语和句子......