首页 > 其他分享 >XTuner 微调个人小助手

XTuner 微调个人小助手

时间:2024-09-13 14:56:12浏览次数:12  
标签:模型 微调 助手 XTuner conda InternLM root

基础任务

  • 使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知

记录复现过程并截图。

一、环境准备

mkdir -p /root/InternLM/Tutorial
git clone -b camp3  https://github.com/InternLM/Tutorial /root/InternLM/Tutorial
# 创建虚拟环境
conda create -n xtuner0121 python=3.10 -y

# 激活虚拟环境(注意:后续的所有操作都需要在这个虚拟环境中进行)
conda activate xtuner0121

# 安装一些必要的库
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y
# 安装其他依赖
pip install transformers==4.39.3
pip install streamlit==1.36.0

安装XTuner

# 创建一个目录,用来存放源代码
mkdir -p /root/InternLM/code

cd /root/InternLM/code

git clone -b v0.1.21  https://github.com/InternLM/XTuner /root/InternLM/code/XTuner
# 进入到源码目录
cd /root/InternLM/code/XTuner
conda activate xtuner0121

# 执行安装
pip install -e '.[deepspeed]' -i https://mirrors.aliyun.com/pypi/simple/

最后验证一下安装效果:

模型结构为:

二、微调前的模型结果

三、QLoRA进行微调

启动微调

模型格式转换完成后,可以看到模型被转换为 HuggingFace 中常用的 .bin 格式文件,这就代表着文件成功被转化为 HuggingFace 格式了。

 模型合并后

再次运行xtuner_streamlit_demo.py脚本来观察微调后的对话效果,在运行之前,将脚本中的模型路径修改为微调后的模型的路径。

然后,我们可以直接启动应用。

conda activate xtuner0121

streamlit run /root/InternLM/Tutorial/tools/xtuner_streamlit_demo.py

四、微调后的模型结果

标签:模型,微调,助手,XTuner,conda,InternLM,root
From: https://blog.csdn.net/weixin_61293488/article/details/142184323

相关文章

  • vim-ai 学习资料汇总 - AI 驱动的 Vim 代码助手
    vim-ai简介vim-ai是一个为Vim和Neovim编辑器添加人工智能功能的插件。它利用OpenAI的API,允许用户在编辑器中生成代码、编辑文本,或与GPT模型进行交互式对话。主要功能使用AI生成文本或代码,回答问题使用AI在原位置编辑选定的文本与ChatGPT进行交互式对......
  • 详细步骤!分享6款AI论文写作助手自动生成器实例操作!
    在当今学术研究和写作领域,AI论文生成工具的出现极大地提高了写作效率和质量。这些工具不仅能够帮助研究人员快速生成论文草稿,还能进行内容优化、查重和排版等操作。以下是6款推荐的AI论文写作助手自动生成器实例操作,特别推荐千笔-AIPassPaper。千笔-AIPassPaper千笔-AIPassPa......
  • 分享一个AI开发者的强力助手:openMind Library
    在人工智能的浪潮中,深度学习开发套件openMindLibrary,以其强大的功能和易用性,逐步成为AI开发者们的强力助手。本文将通过魔乐社区近期关注挺高的大模型平台魔乐社区,深入了解openMindLibrary。openMindLibrary是什么?openMindLibrary是一个开源的深度学习开发套件,它通过简单易用......
  • 大模型微调j技术:GaLore、BAdam、Adam-mini、DoRA、LongLoRA、LLaMA Pro、Mixture-of-D
    引言1.1大模型微调的重要性随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-3、BERT等已经成为自然语言处理(NLP)领域的核心技术。这些模型通过在大规模文本数据上的预训练,掌握了丰富的语言知识和统计特征。然而,尽管这些预训练模型在通用任务上表现出色,但在特定任务或领......
  • 视频监控推流助手/极低延迟/支持N路批量多线程推流/264和265推流/监控转网页
    一、前言说明搞视频监控开发除了基本的拉流以外,还有个需求是推流,需要将拉到的流重新推流到流媒体服务器,让流媒体服务做转发和负载均衡,这样其他地方只需要问流媒体服务器要视频流即可。为什么拉了又重新推呢,因为软件这边和可能拉流后做了处理,比如做了人工智能运算,识别到了物体方框......
  • 春招季的智能助手:Spring Boot大学生审核系统
    2相关技术2.1MYSQL数据库MySQL是一个真正的多用户、多线程SQL数据库服务器。是基于SQL的客户/服务器模式的关系数据库管理系统,它的有点有有功能强大、使用简单、管理方便、安全可靠性高、运行速度快、多线程、跨平台性、完全网络化、稳定性等,非常适用于Web站点或者其他......
  • AI实战 | 领克汽车线上营销助手:全面功能展示与效果分析
    助手介绍我就不自我介绍了,在我的智能体探索之旅中,很多人已经通过coze看过我的教程。今天,我专注于分享我所开发的一款助手——《领克汽车线上营销》。他不仅仅是一个销售顾问的替身,更是一位能在线上自动为对领克感兴趣的潜在粉丝介绍领克车系的助手。他还能提供全方位的车辆对比......
  • 10分钟在网站上增加一个AI助手
    只需10分钟,为您的网站添加一个AI助手,以便全天候(7x24)回应客户咨询,提升用户体验、增强业务竞争力。方案概览在网站中引入一个AI助手,只需4步:创建大模型问答应用:我们将先通过百炼创建一个大模型应用,并获取调用大模型应用API的相关凭证。搭建示例网站:然后我们将通......
  • 关于RTX 4090 微调llama2模型时出现nvcc fatal : Unsupported gpu architecture 'comp
    RTX4090是现在普通人可以轻松获取的最好的显卡了。运算速度仅次于专业图形卡TeslaA100,A800,H100RTX4090显卡是可以单卡推理llama27b和13b模型的,7b模型占用缓存14G左右,13b模型单卡推理显存占用在23G多点(只是运行一段时间容易爆显存),所以普通人都是可以使用llama2大语言模型。......
  • 10分钟在企业微信中集成一个 AI 助手
    您只需10分钟,无需任何编码,即可为您的组织在企业微信上集成一个有大模型能力加成的AI助手。这个助手可以全天候(7x24)响应用户咨询,还能解答私域问题,成为您企业的专属助手,提升用户体验,增强业务竞争力。方案概览在企业微信中集成一个AI助手,只需几步:创建大模型问答应用:通......