• 2024-10-27transformers 推理 Qwen2.5 等大模型技术细节详解(二)AutoModel 初始化和模型加载(免费送新书)
    接上文:transformers推理Qwen2.5等大模型技术细节详解(一)transformers包和对象加载老牛同学和大家通过Transformers框架的一行最常见代码fromtransformersimportAutoModelForCausalLM,走读了transformers包初始化代码的整个流程。从中体会到了dummy对象、LazyModule延迟
  • 2024-10-20基于Python的自然语言处理系列(34):Huggingface 自定义分词器与数据集
            在自然语言处理(NLP)中,分词是将原始文本转换为模型可处理的数字形式的关键步骤。无论是情感分析、文本生成,还是问答系统,分词都决定了模型如何理解输入数据。Huggingface的transformers库提供了多种强大的分词工具,使我们可以灵活地加载、保存和使用预训练
  • 2024-08-30昇思AI框架实践2:基于T5的SQL语句生成模型推理
     MindSpore基于T5的SQL语句生成项目实施基于T5的SQL语句生成项目介绍本项目旨在开发一个基于T5-small模型的自然语言转SQL语句生成器。该生成器能够将用户以自然语言形式提出的查询请求转换为对应的SQL查询语句,从而使得即使是不熟悉SQL语言的用户也能够轻松地从数据库中检
  • 2024-08-28(十九)transformers解码策略
    文本生成策略文本生成对于许多NLP任务至关重要,例如开放式文本生成、摘要、翻译和更多。它还在各种混合模态应用程序中发挥作用,这些应用程序将文本作为输出,例如语音到文本以及vision-to-text。一些可以生成文本的模型包括GPT2、XLNet、OpenAIGPT、CTRL、TransformerXL、XLM
  • 2024-08-11深度学习武器库-timm-非常好用的pytorch CV模型库 - 常用模型操作
    简要介绍timm库,全称pytorch-image-models,是最前沿的PyTorch图像模型、预训练权重和实用脚本的开源集合库,其中的模型可用于训练、推理和验证。github源码链接:https://github.com/huggingface/pytorch-image-models文档教程文档:https://huggingface.co/docs/hub/timm上手教程:h
  • 2024-08-08Diffusers中Pipeline的数据类型是怎么设置和转化的,pipeline.dtype和pipeline.from_pretrained(torch_dtype)
    参考资料:Diffusers中DiffusionPipeline基类的[源码]众所周知Pipeline是Diffusers中最重要的一个API接口,一直以来我都对这个接口数据结构的获取一知半解,今天看了下源码终于知道了这个API结构的数据类型是如何设置的。直接看代码:@propertydefdtype(self)->torch
  • 2024-05-31lora_adapter 模型和原模型合并成一个模型
    lora部分合并到原模型参数上importtorchfrompeftimportPeftModelfromtransformersimportAutoTokenizer,AutoModelForCausalLM,LlamaTokenizerfromtransformers.generation.utilsimportGenerationConfigdefapply_lora(model_name_or_path,output_path,lor
  • 2024-05-29huggingface 下载与训练模型时会报 SSLERROR 连接 错误,解决办法如下
    我用方案一解决解决方案方案1:使用代理(需要梯子)在你的Python代码的开头加上如下代码importosos.environ['HTTP_PROXY']='http://proxy_ip_address:port'os.environ['HTTPS_PROXY']='http://proxy_ip_address:port'其中 http://proxy_ip_address:port 中的 
  • 2023-11-09PreTrainedModel 中 from_pretrained 和 load_state_dict 的关联
    from_pretrainedAutoTokenizer.from_pretrained:从path/vocab.json中加载tokenizerAutoConfig.from_pretrained:从path/config.json中加载模型配置信息更新模型配置信息:model=Model(config)PreTrainedModel.from_pretrained:加载模型结构和模型参数load_checkpoint
  • 2023-09-03中文命名实体识别
    本文通过people_daily_ner数据集,介绍两段式训练过程,第一阶段是训练下游任务模型,第二阶段是联合训练下游任务模型和预训练模型,来实现中文命名实体识别任务。一.任务和数据集介绍1.命名实体识别任务NER(NamedEntityRecognition)和Pos(Part-of-Speech)是2类典型的标记分类问题。NER
  • 2023-08-25strict=False 但还是size mismatch 的解决办法
    问题描述:#RuntimeError:Error(s)inloadingstate_dictforFusion_Generator:sizemismatchforfg_decoder.0.weight:copyingaparamwithshapetorch.Size([4096,1024]),g_decoder.0.weight:copyingaparamwithshapetorch.Size([4096,1024]...出现两个参数的不
  • 2023-07-29HuggingFace | HuggingFace中from_pretrained函数的加载
    我们使用huggingface的from_pretrained()函数加载模型和tokenizer,那么加载这些需要什么文件?加载模型测试代码:如果加载成功,就打印1。fromtransformersimportAutoModelForMaskedLMmodel=AutoModelForMaskedLM.from_pretrained("./bert-base-chinese")print(1)文件目
  • 2023-06-22Huggingface Transformers库学习笔记(一):入门(Get started)
    前言Huggingface的Transformers库是一个很棒的项目,该库提供了用于自然语言理解(NLU)任务(如分析文本的情感)和自然语言生成(NLG)任务(如用新文本完成提示或用另一种语言翻译)的预先训练的模型。其收录了在100多种语言上超过32种预训练模型。这些先进的模型通过这个库可以非常轻松
  • 2023-05-13Fine-tuning Pretrained Network技术研究
    Fine-tuningPretrainedNetwork技术研究一、基本概念定义(1)数据域(domain)用D={χ,P(X)}表示,它包含两部分:特征空间χ和边缘概率分布P(X)其中X={x1,...xn}∈χ在文本分类任务中,把每一个单词看作二值的特征即出现或者不出现,所有检索词向量的空间就是χ,xi对应某一文本
  • 2023-05-12Fine-tuning Pretrained Network技术研究
    一、基本概念定义(1)数据域(domain)用D={χ,P(X)}表示,它包含两部分:特征空间χ和边缘概率分布P(X)其中X={x1,...xn}∈χ在文本分类任务中,把每一个单词看作二值的特征即出现或者不出现,所有检索词向量的空间就是χ,xi对应某一文本第i个词向量的值,X就是特定的学习样本。如果说两个数据域不同,
  • 2023-04-06成为钢铁侠!只需一块RTX3090,微软开源贾维斯(J.A.R.V.I.S.)人工智能AI助理系统
    梦想照进现实,微软果然不愧是微软,开源了贾维斯(J.A.R.V.I.S.)人工智能助理系统,贾维斯(jarvis)全称为JustARatherVeryIntelligentSystem(只是一个相当聪明的人工智能系统),它可以帮助钢铁侠托尼斯塔克完成各种任务和挑战,包括控制和管理托尼的机甲装备,提供实时情报和数据分析,帮助托
  • 2023-03-06huggingface三种添加模型的方法
    首先搞清楚预训练模型一般会有的文件:vocab.txtconfig.jsonpytorch_model.bin这三个分别对应tokenizer,config和model。添加huggingfacehub里面的模型只要有模型名
  • 2023-02-27Rethinking CNN Models for Audio Classification
    WhatenablestheImageNetpretrainedmodelstolearnusefulaudiorepresentations,wesystematicallystudyhowmuchofpretrainedweightsisusefulforlearnin
  • 2022-12-18Transformers库之模型(Model)组件和分词器(Tokenizer)组件
    目录模型加载模型保存模型分词器分词策略加载与保存分词器编码与解码文本处理多段文本Padding操作Attentionmasks直接使用分词器编码句子对模型在之前介绍pipeline组
  • 2022-12-07Transformers Optimum 使用
    介绍