首页 > 其他分享 >初学者如何对大模型进行微调?

初学者如何对大模型进行微调?

时间:2024-11-27 22:05:41浏览次数:11  
标签:训练 AI 模型 微调 对大 学习 初学者

粗略地说,大模型训练有四个主要阶段:预训练、有监督微调、奖励建模、强化学习。

预训练消耗的时间占据了整个训练pipeline的99%,其他三个阶段是微调阶段,更多地遵循少量 GPU 和数小时或数天的路线。预训练对于算力和数据的要求非常高,对于普通开发者来说基本上不用考虑了。

对于开发者来说,如果你有几块GPU显卡,那么就可以尝试微调了。不过在微调之前,我们要弄明白为什么要微调,大模型为什么不能直接用?

一、为什么要微调?

大语言模型的预训练的目标很简单:文字接龙,通过前面的词语预测下一个字也就是预测token序列的下一个token。

预训练基于大规模无监督数据集训练,得到的大语言模型可以保存很多知识,但是可能无法充分利用这些知识来回答问题。

我的理解是预训练就是一个班上学习很好的学霸,不过只会死记硬背,脑袋里记忆了很多知识,但是不会灵活应用这些知识。一般预训练的数据格式如下所示:

[     {"text": "中国的首都是北京"},     {"text": "初学者如何对大模型进行微调"}   ]   

如果将“中国的首都是”输入大模型,大模型做文字接龙,可以很轻松的补全“北京”作为回答。但是如果问题的形式是“中国的首都是哪个城市?”这种疑问句形式的时候,虽然只进行了预训练的大模型大概率也能回答这个简单问题,比如采用Few-shot prompt等方法。

但这种形式的问题如果内容更复杂一些,大模型可能无法很好的作答(尽管预训练语料中可能包含了问题的答案)。这时我们就需要指令微调来挖掘大语言模型的潜力。让大模型不仅仅满足于文字接龙,而是要真正具备逻辑推理、文案总结等能力。

一般来说我们可以在modelscope中搜索最新的大模型,以Llama系列为例子。其中

  • Meta-Llama-3-8B不包含Instruct关键词,说明它只有预训练,未经过指令微调。

  • Meta-Llama-3-8B-Instruct包含Instruct关键词,经过预训练、指令微调。

二、初学者如何微调?

对于初学者来说,我们不需要指令微调来挖掘大语言模型的潜力,虽然这个时候的指令微调相比预训练资源消耗小很多,但是对于初学者来说还是很困难的,在微调过程中会碰到灾难性遗忘、复读机等问题。

我建议初学者做微调是在指令微调模型的基础加入特定领域的数据,比如法律文档、医疗诊断等领域,模型需要调整其参数以更好地理解和执行这些特定任务的要求,微调允许大语言模型在特定任务的数据集上进一步学习,从而提高其在该领域的准确性和表现。

比如我在Qwen1.5-7B-Chat的基础上(Qwen1.5-7B-Chat是一个预训练、指令微调后的大模型),准备训练数据集45366条,测试数据集5032条,再微调大模型来实现商品评论情感分析,准确率高达91.70****%,具体实现方法如下:

微调大模型来实现商品评论情感分析

学习微调最好的办法就是自己亲身实践一遍。在去年的时候微调大模型还是一件比较困难的事情。微调工具链不太成熟,碰到了问题只能一个接一个去提issue,费时费力效果还一般。

不过随着大厂在大模型领域真金白银的投入,适合大模型微调的工具链组件快速发展,从初学者入门的角度出发。我推荐使用LLaMA-Factory统一微调框架,它能够支持数百种大模型的微调,并且集成了大量训练加速算法,比很多大模型repo主页训练方法还要快。下面我们来看一看如何使用它。

1.依赖下载

git clone https://github.com/hiyouga/LLaMA-Factory.git   conda create -n llama_factory python=3.10   conda activate llama_factory   cd LLaMA-Factory   pip install -e .[metrics]   

如果依赖有问题,可以。

2.大模型下载

这里以Baichuan2-13B-Chat为例。

#模型下载   from modelscope import snapshot_download   model_dir = snapshot_download('baichuan-inc/Baichuan2-13B-Chat')   

默认模型会下载到~/.cache/modelscope/hub中,如果需要修改下载目录,可以手动指定环境变量:MODELSCOPE_CACHE,modelscope会将模型和数据集下载到该环境变量指定的目录中

比如更改默认位置:

export MODELSCOPE_CACHE=/home/test/models   

3.数据集构建

(1)使用开源数据集

llama_factory中的 data文件夹提供了大量整理好的开源数据集

(2)构建自己的数据集 比如我我按照alpaca 格式准备数据集,包括 instruction, input, output,history 4条内容,其中instruction、 input 为输入,output 为输出标注,数据文件存储格式一般为json。

[     {       "instruction": "用户指令(必填)",       "input": "用户输入(选填)",       "output": "模型回答(必填)",       "system": "系统提示词(选填)",       "history": [         ["第一轮指令(选填)", "第一轮回答(选填)"],         ["第二轮指令(选填)", "第二轮回答(选填)"]       ]     }   ]   

例子如下:

[     {       "instruction": "判断该文章是观点类还是新闻类",       "input": "报纸报道称政府已宣布决定在该地区部署更多武装部队。",       "output": "该文章被归类为新闻类。"     },     {       "instruction": "电子邮件信息的三个最重要的组成部分是什么?",       "input": "",       "output": "电子邮件信息的三个最重要的组成部分是主题行、邮件正文和签名。"     },     ...   ]      

(3)引入自己的数据集

构建自己的数据集后,需更新 data/dataset_info.json 文件,并将数据集放置data文件夹

比如我构建了一个数据集test.json,需更新data/dataset_info.json 文件,并将test.json放置于data文件夹

{     "test": {       "file_name": "test.json",     },     "alpaca_en_demo": {       "file_name": "alpaca_en_demo.json"     },     ...    }   

4.微调

建议初学者采用web可视化页面微调,启动命令如下:

CUDA_VISIBLE_DEVICES=0 llamafactory-cli webui   

其中:CUDA_VISIBLE_DEVICES 指定使用哪块显卡

启动后,微调就更简单了。llamafactory集成了多种微调算法,比如

  • Lora

  • QLora

  • LoRA+

  • Mixture-of-Depths

  • GaLore

等等微调算法,在这里我不想深究它们的具体原理。我建议初学者首先使用Lora微调的方式,只需配置3个参数即可开始微调

5.推理

由于采用的是Lora微调,我们需要将原有大模型的权重与自己训练出来的权重合并。

llamafactory也内置了推理模块,只需调1个参数,即可推理,如下图所示:

下面这张图,是我基于llamafactory做的商品评论情感预测,其中1代表好评,0代表差评。可以看到大模型输出1,代表它认为这条评论是好评。

三、最后

现在大模型微调的门槛越来越低,市场上有大量开源微调框架。只要你会部署、有机器就能出个结果,赶紧动手玩起来吧!

零基础如何学习AI大模型

领取方式在文末

为什么要学习大模型?

学习大模型课程的重要性在于它能够极大地促进个人在人工智能领域的专业发展。大模型技术,如自然语言处理和图像识别,正在推动着人工智能的新发展阶段。通过学习大模型课程,可以掌握设计和实现基于大模型的应用系统所需的基本原理和技术,从而提升自己在数据处理、分析和决策制定方面的能力。此外,大模型技术在多个行业中的应用日益增加,掌握这一技术将有助于提高就业竞争力,并为未来的创新创业提供坚实的基础。

大模型典型应用场景

AI+教育:智能教学助手和自动评分系统使个性化教育成为可能。通过AI分析学生的学习数据,提供量身定制的学习方案,提高学习效果。
AI+医疗:智能诊断系统和个性化医疗方案让医疗服务更加精准高效。AI可以分析医学影像,辅助医生进行早期诊断,同时根据患者数据制定个性化治疗方案。
AI+金融:智能投顾和风险管理系统帮助投资者做出更明智的决策,并实时监控金融市场,识别潜在风险。
AI+制造:智能制造和自动化工厂提高了生产效率和质量。通过AI技术,工厂可以实现设备预测性维护,减少停机时间。

这些案例表明,学习大模型课程不仅能够提升个人技能,还能为企业带来实际效益,推动行业创新发展。

学习资料领取

如果你对大模型感兴趣,可以看看我整合并且整理成了一份AI大模型资料包,需要的小伙伴文末免费领取哦,无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

部分资料展示

一、 AI大模型学习路线图

整个学习分为7个阶段
在这里插入图片描述
请添加图片描述

二、AI大模型实战案例

涵盖AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,皆可用。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

三、视频和书籍PDF合集

从入门到进阶这里都有,跟着老师学习事半功倍。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

四、LLM面试题

在这里插入图片描述
在这里插入图片描述

五、AI产品经理面试题

在这里插入图片描述

标签:训练,AI,模型,微调,对大,学习,初学者
From: https://blog.csdn.net/2401_85325726/article/details/144027607

相关文章

  • 命令行应用开发初学者指南:脚手架篇、UI 库和交互工具
    在日常的前端开发工作中,我们经常依赖各种命令行工具来提高效率和代码质量。例如,create-react-app和eslint等工具不仅简化了项目的初始化过程,还能自动执行代码检查和格式化任务。当我们使用这些工具时,它们通常会通过一系列互动式的问答来收集必要的信息,从而根据我们的选择进行相......
  • 【数据宽度、符号数】———初学者笔记
    数据宽度在计算机科学中,数据宽度(DataWidth)是指数据总线或寄存器能够同时处理的数据位数。数据宽度通常以比特(bit)为单位来表示,常见的数据宽度有8位、16位、32位和64位等,超过数据宽度时多余的数据会被舍弃。1.数据总线宽度数据总线宽度决定了CPU与内存或其他外部设备之间一......
  • 初学者入门Linux系统的一些内容
    第一阶段:基础知识了解Linux的背景什么是Linux?Linux的历史与发展开源与GNU的概念Linux的主要发行版(如Ubuntu、CentOS、Debian等)Linux的基本组成内核(Kernel)Shell与命令行界面文件系统(Filesystem)第二阶段:基本操作Linux桌面环境安装常用的Linux发行版(建议选择Ubuntu或Fedo......
  • 【书生实战营】- L2G4000 InternVL 多模态模型部署微调实践
    文章目录InternVL部署微调实践多模态大模型简介BLIP2Q-FormerMiniGPT-4LLaVa为什么用Q-Former的变少了InternVL2简介InternViTPixelShuffleDynamicHigh-ResolutionMultitaskoutput训练InternVL部署-LMDeploy训练环境推理环境网页应用部署InternVL微调XTuner微......
  • 大模型LLM微调策略一览
    大语言模型(LLM)借助大规模数据集进行训练,能够在零样本或少样本提示下完成多种任务。随着检索增强生成(RAG)方法的兴起,这些通用模型越来越多地被组织用于各种应用,从简单的聊天机器人到更复杂的智能自动化代理。尽管像GraphRAG这样的技术已经被开发出来,用于基于实体跨文档提取关系,但......
  • Qwen2大模型微调入门实战,零基础入门到精通,收藏这一篇就够了
    Qwen2大模型微调入门实战Qwen2是通义千问团队最近开源的大语言模型,由阿里云通义实验室研发。以Qwen2作为基座大模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。在本文中,我们会使用Qwen2-1.5b-Instruct模型在复旦中文新闻数据集上做指令微调训练,同......
  • 表格数据处理中大语言模型的微调优化策略研究
    论文地址ResearchonFine-TuningOptimizationStrategiesforLargeLanguageModelsinTabularDataProcessing论文主要内容这篇论文的主要内容是研究大型语言模型(LLMs)在处理表格数据时的微调优化策略。具体来说,论文探讨了以下几个关键方面:背景与挑战:大型语言模型......
  • 2024 CCF BDCI 小样本条件下的自然语言至图查询语言翻译大模型微调|Google T5预训练语
    代码详见https://gitee.com/wang-qiangsy/bdci目录一.赛题介绍1.赛题背景2.赛题任务二.关于GoogleT5预训练语言模型1.T5模型主要特点2.T5模型与赛题任务的适配性分析3.模型的优化三.解题思路1.数据准备2.数据处理3.模型训练4.模型评估四.代码实现1.配置类(Config)2.数据集类(Cyp......
  • 大语言模型(LLM)的训练微调 Fine Tuning -- part3 本地调用
    以下代码示范如何调用已经微调后的大语言模型,调用本地模型先决条件已经有了本地训练好的大语言模型,如何训练可以参考我的博文《生成式AI》课程作业6大语言模型(LLM)的训练微调FineTuning--part2-CSDN博客文章浏览阅读148次,点赞2次,收藏2次。代码围绕一个主工作目录展开,......
  • 《生成式 AI》课程 作业6 大语言模型(LLM)的训练微调 Fine Tuning -- part2
    资料来自李宏毅老师《生成式AI》课程,如有侵权请通知下线IntroductiontoGenerativeAI2024Spring来源背景说明该文档主要介绍了国立台湾大学(NTU)2024年春季“生成式人工智能(GenAI)”课程的作业5(GenAIHW5)相关内容,包括任务概述、待办事项、解码参数、提交与评分、参考......