• 2025-01-20Doris 2.1 Queries Acceleration -Tuning Plan学习笔记
    1OptimizingTableSchemaDesign1.1Case1:TableEngineSelection1.1.1Thequeryperformanceofthesetablemodels,frombesttoworst,is:Duplicate>MOW>MOR==Aggregate.1.2Case2:BucketColumnSelection1.2.1Selectingappropriatebucket
  • 2025-01-16Pre-training vs Fine-tuning
    Pre-trainingvsFine-tuninghttps://developer.volcengine.com/articles/7399549896799780874Fine-tuning微调的技术原理是什么?在预训练模型的基础上,针对特定任务或数据领域,通过在新任务的小规模标注数据集上进一步训练和调整模型的部分或全部参数,使模型能够更好地适应新
  • 2025-01-16大模型微调基本概念指北
    本文主要分享一下大模型微调相关的基本概念,包括大模型(GPT)训练流程、微调(SFT)方法&分类&框架&最佳实践、强化学习(RLHF),最后则是分享了如何训练垂直领域大模型。本文是参考网上博客、文章后进行总结而成,旨在让刚接触大模型的同学阅读后能对大模型训练的各个阶段有一个大致的
  • 2025-01-09Peft框架不提供merge_and_unload方法,如何进行peft方法和Base model的合并?以prefix tuning和prompt tuning为例
    Merge_peft_methods_prefix_and_prompt_tuning问题描述我想要把prefixtuning,prompttuning训练的参数和basemodel模型的参数合并,但是huggingface的peft框架只有lora存在merge_and_unload方法,其他的peft方法没有。那应该怎么办呢?这就是本文想解决的问题,把笔者踩得坑记录
  • 2024-12-30Proj CJI Paper Reading: OffsetBias: Leveraging Debiased Data for Tuning Evaluators
    目的:reducebiasofLLMsMethod:使用GPT4生成off-topic(完全无关的话题)用GPT3.5生成遵照off-topic回答的badresponse用goodresponse,badresponse来微调模型,减少bias注意:这里off-topic不会作为用于防止注入的dataAbstract5.
  • 2024-12-29SD模型微调之Textual Inversion和Embedding fine-tuning
    SD模型微调方法TextualInversion详细介绍,包括数据集准备,模型微调过程,推理过程,优缺点等。
  • 2024-12-21解析大模型常用微调方法:P-Tuning、Prefix Tuning、Adapter、LoRA
    作者:王海原文:https://zhuanlan.zhihu.com/p/7474042360预训练大模型虽然具有强大的泛化能力和广泛的知识,但它们通常是针对大量通用数据集进行训练的,这使得它们在处理特定任务时可能无法达到最佳效果,比如ChatGPT、混元、文心一言在回答一些常识性问题时表现的非常出色,但在物理
  • 2024-12-20SD模型微调之Textual Inversion和Embedding fine-tuning
    SD模型微调方法TextualInversion详细介绍,包括数据集准备,模型微调过程,推理过程,优缺点等。
  • 2024-12-14一文搞懂AI大模型的四个核心技术
    前言在日新月异的生成式AI领域,几个核心的专业术语不仅频繁出现在讨论、报告和会议中,更是技术发展的关键驱动力。它们分别是:“PromptEngineering(提示工程)”、“FunctionCalling(函数调用)”、“RAG(检索增强生成)”和“Fine-tuning(微调)。•PromptEngineering(提示工程):提示
  • 2024-12-13转发:【AI系统】Auto-Tuning 原理
    在硬件平台驱动算子运行需要使用各种优化方式来提高性能,然而传统的手工编写算子库面临各种窘境,衍生出了自动生成高性能算子的的方式,称为自动调优。在本文我们首先分析传统算子库面临的挑战,之后介绍基于TVM的业界领先的三个自动调优系统。高性能算子挑战DNN部署的硬件平台越来
  • 2024-12-13转载:【AI系统】Auto-Tuning 原理
    在硬件平台驱动算子运行需要使用各种优化方式来提高性能,然而传统的手工编写算子库面临各种窘境,衍生出了自动生成高性能算子的的方式,称为自动调优。在本文我们首先分析传统算子库面临的挑战,之后介绍基于TVM的业界领先的三个自动调优系统。高性能算子挑战DNN部署的硬件平台越来
  • 2024-12-12转载:【AI系统】Auto-Tuning 原理
    在硬件平台驱动算子运行需要使用各种优化方式来提高性能,然而传统的手工编写算子库面临各种窘境,衍生出了自动生成高性能算子的的方式,称为自动调优。在本文我们首先分析传统算子库面临的挑战,之后介绍基于TVM的业界领先的三个自动调优系统。高性能算子挑战DNN部署的硬件平台越来
  • 2024-12-11【大模型微调学习4】-大模型微调技术
    【大模型微调学习4】-大模型微调技术1.AdapterTuning(2019Google)开启大模型PEFT2.PrefixTuning:自动化构造Prompts3.PromptTuning:SoftPrompts开创者(2021Google)4.P-Tuningv1:解决人工设计Prompt的问题(2021Tsinghua,MIT)5.P-Tuningv2:提升小模
  • 2024-12-05大模型微调知识全景
    大模型微调知识全景文章目录大模型微调知识全景一、大模型开发全流程二、什么是大模型微调三、为什么需要大模型微调四、大模型微调的方法有哪些4.1FFT的缺点4.2PEFT的优点4.3PEFT的分类五、各类微调方法的原理是什么5.1In-ContextLearning5.2SoftPromptTun
  • 2024-12-02第7章 大模型之Adaptation
     7.1引言在自然语言处理任务中,虽然语言模型(例如GPT-3)在很多任务上能够仅通过提示(prompting)进行上下文学习,但它们并不适用于所有下游任务。特别是当下游任务的格式和主题与语言模型的训练数据存在差异时(例如,自然语言推理NLI、问题回答QA等),就需要对模型进行适配(adaptation)。
  • 2024-11-25VUE|学习笔记②(Vue3核心语法)
     目录OptionsAPI与CompositionAPIsetup概述setup的返回值setup与OptionsAPIsetup语法糖expor报错:应为声明或语句。ts(1128)ref创建:基本类型的响应式数据reactive创建:对象类型的响应式数据ref创建:对象类型的响应式数据ref对比reactivetoRefs与toRef computed
  • 2024-10-142025秋招NLP算法面试真题(二十二)-大模型参数高效微调技术总结与对比
    目录当前高效微调技术的简述BitFitPrefixTuningPromptTuningP-TuningP-Tuningv2AdapterTuningAdapterFusionAdapterDropLoRAAdaLoRA<
  • 2024-10-14大模型微调
    大模型微调指令微调指令微调对齐微调高效微调适配器微调(adaptertuning)前缀微调(prefixtuning)提示微调(prompttuning)低秩适配(LoRA)对齐微调高效微调适配器微调(adaptertuning)前缀微调(prefixtuning)提示微调(prompttuning)低秩适配(LoRA)【论文速读】LoRA:Low-rankadapt
  • 2024-10-10PatentGPT: A Large Language Model for Patent Drafting Using Knowledgebased Fine-tuning Method
    本文是LLM系列文章,针对《PatentGPT:ALargeLanguageModelforPatentDraftingUsingKnowledgebasedFine-tuningMethod》的翻译。PatentGPT:一种使用基于知识的微调方法进行专利起草的大型语言模型摘要1引言2相关工作3提出的方法4实验5基准测试6总结