首页 > 其他分享 >微调大语言模型——LLaMa-Factory平台搭建(非常详细)

微调大语言模型——LLaMa-Factory平台搭建(非常详细)

时间:2024-08-05 11:54:15浏览次数:7  
标签:https AI 模型 Factory 学习 点击 LLaMa 页面 搭建

我们采用 LLaMA-Factory平台进行微调语言模型,详细信息可以访问github主页(https://github.com/hiyouga/LLaMA-Factory)浏览。

租赁显卡

采用AutoDL作为云平台进行微调训练。Win系统采用终端命令行操作的过程差不多。

选择合适的显卡,点击租赁

LLaMa-Factory 所需要的设备软硬件环境要求如下:

MandatoryMinimumRecommend
python3.83.10
torch1.13.12.2.1
transformers4.37.24.38.2
datasets2.14.32.17.1
accelerate0.27.20.27.2
peft0.9.00.9.0
trl0.7.110.7.11
OptionalMinimumRecommend
CUDA11.612.2
deepspeed0.10.00.13.4
bitsandbytes0.39.00.41.3
flash-attn2.3.02.5.5

训练各类模型所需的显存大小:

MethodBits7B13B30B65B8x7B
Full16160GB320GB600GB1200GB900GB
Freeze1620GB40GB120GB240GB200GB
LoRA1616GB32GB80GB160GB120GB
QLoRA810GB16GB40GB80GB80GB
QLoRA46GB12GB24GB48GB32GB

在弹出页面内镜像一栏选择基础镜像,下拉菜单内依据以上要求选择合适的pytorch框架版本、Python版本和Cuda版本。之后点击立即创建。

选择配置

本地平台配置

克隆项目

创建成功后,点击JupyterLab进入终端页面。

进入终端

终端页面如下,点击终端进入命令行页面。

点击终端

再命令行输入以下代码-回车,进行学术资源加速:

source /etc/network_turbo  


再输入以下代码回车,克隆LLaMA-Factory项目:

git clone https://github.com/hiyouga/LLaMA-Factory.git  


稍等一段时间,克隆完成结束后出现以下界面:

完成界面

新建虚拟环境

输入以下代码,创建新环境:

conda create -n llama_factory python=3.10  


中间有过程需要输入y进行确认。

输入以下代码初始化conda:

source /root/miniconda3/etc/profile.d/conda.sh  


输入以下代码激活该环境:

conda activate llama_factory  


如图所示,已经成功激活:

「虚拟环境」

虚拟环境为项目提供了一个隔离的空间,可以避免不同项目依赖的包版本冲突。每个虚拟环境都有自己的依赖包副本,不会影响到其他环境。

之后每次运行都需要激活虚拟环境。

安装依赖库

输入以下代码,进入平台目录:

cd LLaMA-Factory  


输入以下代码,安装所需的库文件

pip install -r requirements.txt  


再安装modelscope

pip install modelscope -U  


启动前端页面

首先下载访问以下链接,下载并解压压缩包:AutoDL-SSH-Tools.zip

https://autodl-public.ks3-cn-beijing.ksyuncs.com/tool/AutoDL-SSH-Tools.zip  


在命令行输入以下代码:

CUDA_VISIBLE_DEVICES=0 python src/train_web.py  


出现如下页面即启动成功,注意端口号为7860

回到解压后的压缩包,打开第一个文件:

回到AutoDL控制台页面,按照下图填入相关信息后,点击开始代理:

点击此网址,即可进入训练平台的前端页面:

前端页面

下载大模型

其他方法见往期推送,现补充一个新的方法:

新建py文件,命名为download.py,代码如下:

from modelscope import snapshot_download  
model_path="qwen/Qwen1.5-7B-Chat"  
cache_path="/root/autodl-tmp"#云平台建议下载到这个目录,是数据盘,可以扩增  
snapshot_download(model_path, cache_dir=cache_path)  


model_path可以更换为huggingface或者modelscope上的模型目录,运行该py文件即可下载

终端运行py文件方法,命令行该文件目录下输入:

python download.py  


模型目录位置

模型下载网站:ModelScope

https://modelscope.cn/  


Huggingface

https://huggingface.co/  


GitHub

https://github.com/  


Gittee

https://gitee.com/  


AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

四、AI大模型商业化落地方案

img

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版CSDN大礼包:《AGI大模型学习资源包》免费分享

更多内容为防止和谐,可以扫描获取哦~

请添加图片描述

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文转自 https://blog.csdn.net/Javachichi/article/details/140877888?spm=1001.2014.3001.5502,如有侵权,请联系删除。

标签:https,AI,模型,Factory,学习,点击,LLaMa,页面,搭建
From: https://blog.csdn.net/abao6690/article/details/140923284

相关文章

  • spring bean生命周期中BeanNameAware、BeanFactoryAware或ApplicationContextAwar
    BeanNameAware、BeanFactoryAware和ApplicationContextAware是Spring框架中提供的三个Aware接口,它们允许Bean在生命周期的特定阶段获取关于自身或容器的信息。以下是关于这三个Aware接口的详细解释:1.BeanNameAware定义与功能:BeanNameAware接口允许Bean获取自己在Spring......
  • 快速体验LLaMA-Factory 私有化部署和高效微调Llama3模型FAQ
    序言之前已经介绍了在超算互联网平台SCNet上使用异构加速卡AI显存64GBPCIE,私有化部署Llama3模型,并对Llama3-8B-Instruct模型进行LoRA微调、推理和合并,详细内容请参考另一篇博客:快速体验LLaMA-Factory私有化部署和高效微调Llama3模型(曙光超算互联网平台异构加速卡DC......
  • wsl docker里运行ollama并使用nvidia gpu的一些记录
     1、安装wsl2具体过程网上一搜一把,这里就先略过了,只有wsl2能用哈2、wsl里装docker,及相关配置装dockerwget https://download.docker.com/linux/static/stable/aarch64/docker-23.0.6.tgzcd/mydata/tmp/tar -zxvf docker-23.0.6.tgzmvdocker/*/usr/bin/mvdock......
  • conda环境安装与虚拟环境搭建
    conda环境安装与虚拟环境搭建注意:自己家目录名不要出现中文,避免python的一些未知错误windows下载安装包https://www.anaconda.com/download解压到D:\Anaconda3配置python环境变量右击此电脑>属性>高级系统设置>环境变量>系统变量>双击PathD:\Anaconda3D:\Anaconda3\Scr......
  • [Rust]使用Rocket框架搭建简单Web服务
    本文主要讲述如何在Rust中使用Rocket搭建简易Web服务1.添加Rocket库Cargo.toml[dependencies]rocket={version="0.5.1",features=["secrets"]}2.创建服务2.1创建一个启动脚本main.rsuserocket::{launch,routes};#[launch]fnrocket()->_{rocket......
  • 如何搭建云电脑?让数据更安全。。。。。。
    上周,微软Windows系统的蓝屏故障对各行各业造成了严重影响。航空业首当其冲,当天所有航班停飞,人员滞留在机场。酒店业也未能幸免,同样受到波及。1.故障分析及解决措施本次蓝屏事件的导火索是CrowdStrike公司更新的驱动程序。CrowdStrike提供的解决方案相当复杂,用户需......
  • Continue-AI编程助手本地部署llama3.1+deepseek-coder-v2
    领先的开源人工智能代码助手。您可以连接任何模型和任何上下文,以在IDE内构建自定义自动完成和聊天体验推荐以下开源模型:聊天:llama3.1-8B推理代码:deepseek-coder-v2:16b嵌入模型nomic-embed-text模型默认存储路径:C:\Users\你的用户名\.ollama\models\blobs模型离线下......
  • 怎么在Ubuntu系统云服务器搭建自己的幻兽帕鲁服务器?幻兽帕鲁搭建教程
    《幻兽帕鲁》是一款备受瞩目的开放世界生存建造游戏,近期在游戏界非常火爆。玩家可以在游戏世界中收集神奇的生物“帕鲁”,并利用它们进行战斗、建造、农耕、工业生产等各种活动。与其他开放世界游戏不同,要想实现多人联机游戏,玩家需要自行搭建服务器。目录基本步骤创建和登录主机......
  • Flask 快速搭建模板1
    快速搭建基础框架成品预览pip安装需要导入的基础包pipinstallflaskpipinstallflask-sqlalchemypipinstallflask-wtfpipinstallbootstrap-flaskpipinstallflask-loginpipinstallflask-moment创建目录结构typenul>main.pytypenul>config.pytyp......
  • thinkphp.5.1环境配置搭建一个简易程序
    众所周知php是搭建应用程序简单快捷的语言,今天我们就搭建一下吧工具准备thinkphp框架源码:thinkphp:ThinkPHP是一个开源的,快速、简单的面向对象的轻量级PHP开发框架framework:ThinkPHP核心框架库代码管理工具(可选)sourtree之前我的博客中有详细介绍使用,这里不一一......