首页 > 其他分享 >Qwen1.5微调

Qwen1.5微调

时间:2024-04-23 11:58:28浏览次数:14  
标签:-- 微调 Qwen 报错 Qwen1.5 workspace bash

​引子

由于工作上需要,一直在用Qwen做大模型推理,有个再训练的需求,特此琢磨下Qwen的训练。OK,我们开始吧。

一、安装环境

查看显卡驱动版本

根据官网推荐

OK,docker在手,天下我有。

docker pull qwenllm/qwen:cu117

docker run -it --rm --gpus=all -v /mnt/code/LLM_Service/:/workspace qwenllm/qwen:cu117 bash

二、测试环境

1、数据集准备

2、下载代码

GitHub - QwenLM/Qwen1.5: Qwen1.5 is the improved version of Qwen, the large language model series developed by Qwen team, Alibaba Cloud.

cd /workspace/qwen1.5_train/Qwen1.5/examples/sft

3、配置

修改脚本,/workspace/qwen1.5_train/Qwen1.5/examples/sft/finetune.sh

执行命令, bash finetune.sh,报错如下:

修改如下:

报错,显卡不支持bf16,改为fp16精度

本地训练,修改脚本

继续报错,transformer没更新

git install transformer -i Simple Index

执行命令, bash finetune.sh

继续报错,accelerate版本不对

pip install accelerate==0.27.2

单机多卡,继续报错。

修改为单机单卡,重启容器,docker run -it --rm --gpus='"device=1"' -v /mnt/code/LLM_Service/:/workspace qwen:v1.0 bash

out of memory,修改为7B模型重新尝试,下载地址https://huggingface.co/Qwen/CodeQwen1.5-7B-Chat/tree/main

两条数据训练完成

显存占用

 

标签:--,微调,Qwen,报错,Qwen1.5,workspace,bash
From: https://www.cnblogs.com/nick-algorithmer/p/18152540

相关文章

  • 使用ORPO微调Llama 3
    ORPO是一种新的微调技术,它将传统的监督微调和偏好对齐阶段结合到一个过程中。减少了训练所需的计算资源和时间。论文的实证结果表明,ORPO在各种模型大小和基准上都优于其他对齐方法,所以这次我们就来使用最新的Llama3来测试下ORPO的效果。我们将使用ORPO和TRL库对新的Llama38b......
  • 从LLaMA-Factory项目认识微调
    概述什么是LLaMA-Factory?LLaMA-Factory是一个在github上开源的,专为大模型训练设计的平台。项目提供中文说明,可以参考官方文档:https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md为什么要学习LLaMA-Factory?大模型技术发展到现在,企业想要真正利用大模型做些事情,......
  • 模型微调-书生浦语大模型实战营学习笔记&大语言模型5
    大语言模型-5.模型微调书生浦语大模型实战营学习笔记-4.模型微调本节对应的视频教程为B站链接。笔记对视频的理论部分进行了整理。大模型的训练过程模型视角这里原视频用的“分类”这个名字,我看到的时候还有点懵......
  • PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法
    我们开始看4月的新论文了,这是来自北京大学人工智能研究所、北京大学智能科学与技术学院的研究人员发布的PrincipalSingularValuesandSingularVectorsAdaptation(PiSSA)方法。PiSSA和LoRA一样,都是基于这样的前提:对模型参数的改变会形成一个低秩矩阵。这种方法通过将模型中的......
  • 开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(二)
    一、前言  经过开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(一)的实践,相信大家已经成功地运行起一个性能良好的sglangAPI服务。现在,在充裕的服务器资源配置下,接下来可以继续进行一些优化工作。二、术语2.1.sglang  SGLangisastructuredge......
  • 开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(一)
    一、前言   SGLangisastructuredgenerationlanguagedesignedforlargelanguagemodels(LLMs).ItmakesyourinteractionwithLLMsfasterandmorecontrollablebyco-designingthefrontendlanguageandtheruntimesystem。简单来说就是,SGLang简化了LLM......
  • 开源模型应用落地-qwen1.5-7b-chat-LoRA微调代码拆解
    一、前言  本篇文章将解析QWen1.5系列模型的微调代码,帮助您理解其中的关键技术要点。通过阅读本文,您将能够更好地掌握这些关键技术,并应用于自己的项目中。   开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)二、术语介绍2.1.LoRA微调  LoRA(Low-RankAdap......
  • 记录一次Windows11本地部署Qwen1.5-0.5B AWQ模型的经历
    直接上代码,来自魔搭的模型通义千问1.5-0.5B-Chat-AWQ·模型库(modelscope.cn)frommodelscopeimportAutoModelForCausalLM,AutoTokenizerdevice="cuda"#thedevicetoloadthemodelontomodel=AutoModelForCausalLM.from_pretrained("qwen/Qwen1.5-0.5B-C......
  • 微调工程师岗位可能并不存在,但使用 AI 编码工具已经成为刚需
    智能编码工具的快速普及是否会带来全新的编程模式?“大力出奇迹”的规律还将继续适用吗?本文节选自QCon北京特别策划圆桌节目,内容摘自阿里云通义灵码产品技术负责人陈鑫在圆桌对话里的精彩回答。全文见:Sora很难跟进?微调就不是一个岗位?大力出奇迹将继续适用?大模型将对软件生态带来......
  • 【部分内容摘录】深度学习(人工智能):大模型的微调方法
    原文地址:http://www.cn-witmed.com/list/34/9555.html模型微调的基本思想是使用少量带标签的数据对预训练模型进行再次训练,以适应特定任务。在这个过程中,模型的参数会根据新的数据分布进行调整。这种方法的好外在于,它利用了预训练模型的强大能力,同时还能够适应新的数据分布。......