• 2024-06-30Visual Instruction Tuning (LLaVA)
    论文链接:https://proceedings.neurips.cc/paper_files/paper/2023/file/6dcf277ea32ce3288914faf369fe6de0-Paper-Conference.pdf代码链接:https://github.com/haotian-liu/LLaVA?tab=readme-ov-file动机指令微调(InstructionTuning)语言大模型(LLMs)使用机器生成的指令跟
  • 2024-06-24[本科项目实训] P-Tuning v2 训练数据生成
    思路由于我们项目的任务并不属于通用的自然语言处理任务,所以显然没有公开数据集,因而手工生成与模型生成相结合的方式或许是一个不错的选择。在不同的使用方式和任务情景下,我们曾经尝试了不同的数据集生成方式:#v1importjsonimportrandomtrain_f=True#train_f=False
  • 2024-06-24[本科项目实训] P-Tuning v2 测试记录
    测试脚本PRE_SEQ_LEN=64CHECKPOINT=dsbtpg-chatglm-6b-pt-64-2e-2STEP=500CUDA_VISIBLE_DEVICES=0python3main.py\--do_predict\--validation_filedevVX.json\--test_filedevVX.json\--overwrite_cache\--prompt_columncontent\
  • 2024-06-24[本科项目实训] P-Tuning v2 训练记录
    训练脚本PRE_SEQ_LEN=64LR=2e-2CUDA_VISIBLE_DEVICES=0python3main.py\--do_train\--train_filetrainVX.json\--validation_filedevVX.json\--prompt_columncontent\--response_columnsummary\--overwrite_cache\--mo
  • 2024-06-21【论文笔记】Prefix-Tuning: Optimizing Continuous Prompts for Generation
    题目:Prefix-Tuning:OptimizingContinuousPromptsforGeneration来源:ACL2021模型名称:Prefix-Tuning论文链接:https://aclanthology.org/2021.acl-long.353/项目链接:https://github.com/XiangLi1999/PrefixTuning感觉与prompt的想法很相近,那么问题来了,为什
  • 2024-06-17Lora 和peft
    PEFT(Parameter-EfficientFine-Tuning参数高效微调)huggingface:PEFT(huggingface.co)github:GitHub-huggingface/peft:
  • 2024-06-17LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
    LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefixtuing等]由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要
  • 2024-06-17Dual Instruction Tuning with Large Language Models for Mathematical Reasoning
    本文是LLM系列文章,针对《DualInstructionTuningwithLargeLanguageModelsforMathematicalReasoning》的翻译。数学推理的大语言模型双指令调优摘要1引言2方法3实验4结论局限性摘要最近的进展突出了利用思想链(CoT)数据进行数学推理任务的大型语言模型(LLM)
  • 2024-06-13ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models
    本文是LLM系列文章,针对《ALoRA:AllocatingLow-RankAdaptationforFine-tuningLargeLanguageModels》的翻译。ALoRA:为微调大型语言模型分配低秩自适应摘要1引言2相关工作3方法4实验5结论摘要参数有效微调(PEFT)在大语言模型时代因其有效性和效率而
  • 2024-06-12论文解读——CVPR2024《Learning by Correction: Efficient Tuning Task for Zero-Shot Generative Vision-Langua》
    一、研究背景  视觉-语言模型是一类能够处理和理解图像及其相关文本信息的模型,它们在多种视觉-语言任务中展示了卓越的性能。这些任务包括图像描述(imagecaptioning)、视觉问题回答(visualquestionanswering)、图像-文本检索(image-textretrieval)等。这些模型通常经过大规
  • 2024-06-09【简单讲解下Fine-tuning BERT,什么是Fine-tuning BERT?】
  • 2024-06-07Visual Instruction Tuning论文阅读笔记
    Motivation&AbsMotivation:之前基于LLM的通用助手仅能处理文本。数据:使用纯语言的GPT4生成多模态语言-图像指令数据。模型:基于生成数据端到端训练的模型LLaVA,用于通用视觉语言理解。指标:两个benchmark。GPT-assistedVisualInstructionDataGeneration现有的多模态指令数
  • 2024-06-07BERT+P-Tuning文本分类模型
    基于BERT+P-Tuning方式文本分类模型搭建模型搭建本项目中完成BERT+P-Tuning模型搭建、训练及应用的步骤如下(注意:因为本项目中使用的是BERT预训练模型,所以直接加载即可,无需重复搭建模型架构):一、实现模型工具类函数二、实现模型训练函数,验证函数三、实现模型预测函
  • 2024-06-01LLM Fine-Tuning技术笺疏
    LLM训练阶段训练大模型的三个阶段Pre-trainingstage,也就是预训练阶段,其主要目的是「提高对下一个Token的预测能力」。预训练也就是从零开始创建训练大模型的意思,是基于海量文本、几万亿Token进行的,需要上万张GPU。如果你不理解什么是Token,你就把它理解成每个token就是一个英
  • 2024-05-31[本科项目实训] P-tuning v2技术介绍, Prompt设计与尝试
    to2024/05/13P-tuning概述关于prompttuning和p-tuning技术有大量的相关博客,我在参考资料中给出对于本项目具有一定启发性的内容并在此做简单总结。prompt-tuning为区别于最开始pre-training+fine-tuning的大语言模型微调范式,其希望通过添加模板的方式避免引入额
  • 2024-05-28Fine-tuning in LLaVA:多模态的指令调优
    1Prerequisites1.1TrainingMethods训练方法通常分为三种:提示工程、微调和预训练。1.1.1PromptEngineering不需要重新训练模型,节省成本。1.1.2Fine-tuning微调和预训练的代码基本相同,但是计算量相对小很多。1.1.3Pre-training大规模数据集上训练,得到的是一个未加调
  • 2024-05-28LiT: Zero-shot transfer with locked-image text tuning
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2022 Abstract 1.Introduction 2.Relatedwork 3.Methods 3.1.Contrastivepre-training 3.2.C
  • 2024-05-22Visual Instruction Tuning
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!37thConferenceonNeuralInformationProcessingSystems(NeurIPS2023) Abstract使用机器生成的指令跟踪数据的指令调优大语言模型(LLM)已被证明可以提高新任务的零样本能力,但这一想法在多模态领域的探索较少。
  • 2024-05-07ChatGLM-6B本地部署和P-Tuning微调尝试
    to2024/04/22部署环境OS:Windows10,WSL2(Ubuntu20.04)CPU:Intel(R)Core(TM)i5-12490FGPU:GeForceRTX4070Ti部署过程部署主要参考$[2]$,其中也遇到了一定的问题,记录如下:模型下载模型需要使用GitLFS工具进行下载,由于之前在Windows环境下已经下载过模型文件
  • 2024-05-06大模型高效微调详解-从Adpter、PrefixTuning到LoRA
    一、背景目前NLP主流范式是在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。指令微调是预训练语言模型微调的主流范式其目的是尽量让下游任务的形式尽量接近预训练任务,从而减少下游任务和预训练任务之间的Gap,实现预训练
  • 2024-04-30【每周一读】What is prompt-tuning?
    原文链接:https://research.ibm.com/blog/what-is-ai-prompt-tuning原文作者:KimMartineau(女作者好耶!)本文来自IBM的一篇科普性质的博客。除了介绍手工设计的硬提示(hardprompt)、AI设计的由向量或数字组成的软提示(softprompt)以及将软提示注入不同层的前缀微调(prefix-tuning),本文
  • 2024-03-25LLM - 大语言模型的指令微调(Instruction Tuning) 概述
    欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://blog.csdn.net/caroline_wendy/article/details/137009993大语言模型的指令微调(InstructionTuning)是一种优化技术,通过在特定的数据集上进一步训练大型语言模型(LLMs),使其能够更好地理解和遵循人类的指
  • 2024-03-24大模型学习路线(4)——大模型微调
    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目录前言​一、微调分类1.按微调参数规模划分1.1.全参微调(FullParameterFine-Tuning,FPFT)1.2.低参微调(ParameterEfficientFine-Tuning,PEFT)1.2.1. Adapter1.2.2.LoRA1.2.3.QLoRA1.2.4.Prefix
  • 2024-03-20大模型主流微调训练方法总结 LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning 并训练自己的数据集
    大模型主流微调训练方法总结LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning概述大模型微调(finetuning)以适应特定任务是一个复杂且计算密集型的过程。本文训练测试主要是基于主流的的微调方法:LoRA、Adapter、Prefix-tuning、P-tuning和Prompt-tuning,并对它们进行
  • 2024-03-13【Coursera GenAI with LLM】 Week 2 Fine-tuning LLMs with instruction Class Notes
    GenAIProjectLifecycle:Afterpickingpre-trainedmodels,wecanfine-tune!In-contextlearning(ICL):zero/one/fewshotinference.Includingafewmodelsinthepromptformodeltolearnandgenerateabettercomplement(akaoutput).Itsdrawbacks