首页 > 其他分享 >llama-factory fine-tuning-3 (conception and technologies explanation)

llama-factory fine-tuning-3 (conception and technologies explanation)

时间:2023-11-29 15:57:58浏览次数:49  
标签:conception tuning parameter explanation factory llama fine

train method

supervised fine-tuning

 

Reward Modeling

 

PPO training

 

DPO training

 

full-parameter

 

partial-parameter

 

LoRA

 

QLoRA

 

command parameter

fp16

 

gradient_accumulation_steps

 

lr_scheduler_type

 

lora_target

 

overwrite_cache

 

stage

 

标签:conception,tuning,parameter,explanation,factory,llama,fine
From: https://www.cnblogs.com/ldzbky/p/17865028.html

相关文章

  • llama-factory fine-tuning
    datapreparationforllama-factoryfine-tuning,hereistheinstructionforcustomdatasetpreparation.datasetclassificationalpacastanford_alpacadatasetisafamousexampletofine-tuningllama2togetalpacamodel,followisitsstructure. [{......
  • medical custom dataset for fine-tuning llama2
    datapreparationweusehuggingfaceshibin6624/medical tofine-tuningllama2,pleasenotethatthisdatasetisconsistofenandcndata,herewejustuseendata.datasetstructure nowwedownloadandloaddataset,thensavethemintotrain.csv,valida......
  • 什么是人工智能领域的 SFT - Supervised Finetuning
    在人工智能(AI)领域,SupervisedFinetuning是一个重要的概念。它涉及到在预训练模型的基础上,利用有标签的数据进行微调,以适应特定的任务或领域。这个过程可以被视为在更广泛的知识基础上进行特定任务的训练,从而在新任务上获得更好的性能。SupervisedFinetuning这个名词可以被分解......
  • 论文精读:用于少样本目标检测的元调整损失函数和数据增强(Meta-tuning Loss Functions a
    论文链接:Meta-TuningLossFunctionsandDataAugmentationforFew-ShotObjectDetectionAbstract现阶段的少样本学习技术可以分为两类:基于微调(fine-tuning)方法和基于元学习(meta-learning)方法。基于元学习的方法旨在学习专用的元模型,使用学到的先验知识处理新的类,而基于微......
  • TALLRec: An Effective and Efficient Tuning Framework to Align Large Language Mod
    目录概TallRec代码BaoK.,ZhangJ.,ZhangY.,WangW.,FengF.andHeX.TALLRec:Aneffectiveandefficienttuningframeworktoalignlargelanguagemodelwithrecommendation,2023.概LoRA微调在推荐上的初步尝试.TallRecTallRec实际上就是一种特殊的指令......
  • Langchain-Chatchat项目:4.2-P-Tuning v2使用的数据集
      本文主要介绍P-tuning-v2论文中的5种任务,分别为Glue任务、NER任务、QA任务、SRL任务、SuperGlue任务,重点介绍了下每种任务使用的数据集。一.Glue任务  GLUE(GeneralLanguageUnderstandingEvaluation)是纽约大学、华盛顿大学等机构创建了一个多任务的自然语言理解基准和分......
  • 大语言模型Fine-tuning踩坑经验之谈
    前言 由于ChatGPT和GPT4兴起,如何让人人都用上这种大模型,是目前AI领域最活跃的事情。当下开源的LLM(Largelanguagemodel)非常多,可谓是百模大战。面对诸多开源本地模型,根据自己的需求,选择适合自己的基座模型和参数量很重要。选择完后需要对训练数据进行预处理,往往这一步就难......
  • 基于 P-Tuning v2 进行 ChatGLM2-6B 微调实践
    微调类型简介1.SFT监督微调:适用于在源任务中具有较高性能的模型进行微调,学习率较小。常见任务包括中文实体识别、语言模型训练、UIE模型微调。优点是可以快速适应目标任务,但缺点是可能需要较长的训练时间和大量数据。2.LoRA微调:通过高阶矩阵秩的分解减少微调参数量,不改变预训......
  • explanation
    PolynomialshapefunctionsThebasisfunctionvectorisgeneratedwithrow-stackingoftheindividuallagrangepolynomials.Eachpolynomialdefinedintheinterval \([-1,1]\) isafunctionoftheparameter \(r\).Thecurveparametersmatrix \(\bolds......
  • Proj CDeepFuzz Paper Reading: Framework for Evaluating Faithfulness of Local Exp
    Abstract本文:Task:1.studythefaithfulnessofanexplanationsystemtotheunderlyingpredictionmodelonconsistencyandsufficiency2.introducequantitativemeasuresofconsistencyandsufficiency3.provideestimatorsandsamplecomplexityboundsfo......