首页 > 其他分享 >基于AutoDL 进行 Llama_Factory+LoRA大模型微调

基于AutoDL 进行 Llama_Factory+LoRA大模型微调

时间:2025-01-19 23:10:33浏览次数:1  
标签:AutoDL torch Llama modelscope Factory CUDA LLaMA cuda

 
   

其实这个环境的搭建比较容易,但是其中出现在AutoDL上访问WebUI界面是无法访问的,对该问题查阅了一些资料并记录.

1. 环境的配置及其校验

Step 1. 使用Conda 创建LLaMA-Factory的python虚拟环境

conda create -n llama_factory python==3.11

创建完成后,通过如下命令进入该虚拟环境,执行后续的操作

conda activate llama_factory

Step2. 根据CUDA版本要求安装Pytorch

conda install pytorch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=12.1 -c pytorch -c nvidia

Step 3. 验证GPU版本的Pytorch是否成功

python -c "import torch; print(torch.cuda.is_available())"

若输出是True,则表示GPU版本的Pytorch已经安装承购并且可以使用CUDA,如果输出是False,则表明没有安装GPU版本的Pytorch,或者CUDA环境没有正确配置。

Step 4. 下载LLaMA-Factory的项目文件

  进入LLaMA-Factroy的官方Github,地址为:https://github.com/hiyouga/LLaMA-Factory,在Github上将项目文件下载下来:可以通过clone或者下载zip压缩包两种方式。

  首先,安装git软件包:

sudo apt install git

  然后clone命令,将LLaMA-Factroy github上的项目下载下来

git clone https://github.com/hiyouga/LLaMA-Factory.git

  接下来,解压缩LLaMA-Factory-main.zip文件

unzip LLaMA-Factory-main.zip 

  重命名LLaMA-Factory-main为LLaMA-Factory

mv LLaMA-Factory-main LLaMA-Factory

Step 5. 升级pip版本

python -m pip install --upgrade pip

Step 6.  使用pip安装LLaMA-Facory项目代码运行的项目依赖

# 进入文件夹
cd LLaMA-Factory 
#找到requirements.txt文件
pip install -e '.[torch,metrics]' -i https://pypi.tuna.tsinghua.edu.cn/simple/

   接下来对环境进行整体校验

整体校验1
import torch
torch.cuda.current_device()
torch.cuda.get_device_name(0)
torch.__version__
'''
  'torch.cuda.current_device()': 返回当前选定的 CUDA 设备索引。
 'torch.cuda.get_device_name(0)': 返回索引为 0 的 CUDA 设备名称。
  'torch.__version__: 返回当前安装的 PyTorch 版本。
'''
整体校验2
lamafactory-cli train -h 

2. 使用LLaMA Board微调Qwen2.5模型

Step1. 下载模型(以Qwen2.5 1.5B为例):

modelscope download --model Qwen/Qwen2.5-1.5B-Instruct

  若出现以下问题:

-bash: modelscope: command not found

  则执行以下命令安装modelscope库即可:

pip install modelscope

  如果在当前目录下找不到,去指定默认路径寻找:/root/.cache/modelscope/hub/

  然后将文件移动到指定目录下:
  mv /root/.cache/modelscope/hub/Qwen /home/zx/zxmodel

Step2. 启动对话窗口验证模型是否完整

CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat   --model_name_or_path /home/zx/zxmodel/Qwen/Qwen2___5-1___5B-Instruct   --template qwen

  上述命令中,CUDA_VISIBLE_DEVICES指定当前程序使用的是第0张卡;model_name_path参数为huggingface或者modelscope上的标准定义,如“meta-llama/Meta-Llama-3-8B-Instruct”或者本地下载模型的绝对路径;template 模型问答时所使用的prompt模板,不同模型不同,参考 https://github.com/hiyouga/LLaMA-Factory?tab=readme-ov-file#supported-models 获取不同模型的模板定义,否则会回答结果会很奇怪或导致重复生成等现象的出现。

  通过上述命令启动成功后访问指定端口

  但是在autodl中,会出现以下情况:

   

原因为:
   AutoDL 不支持创建 share 链接,需要映射端口到 6006 并且在控制台开启外部访问 

   解决办法:
  1.修改LLaMA-Factory/src/llamafactory/webui/interface.py文件中的run_web_ui函数为share=True

  2.运行llamafactory-cli webui命令,在运行lamafactory-cli webui命令时出现以下情况:

   对于该问题,接下来根据如上图所示指示下载对应的文件,对该文件重命名,然后放在相应的文件夹下,对此文件执行chmod +x frpc_linux_amd64_v0.2命令赋予权限

  最后,重新执行llamafactory-cli webui命令,如下图所示会生成两个链接

   使用第二个public URL,即可访问页面:

 

 

标签:AutoDL,torch,Llama,modelscope,Factory,CUDA,LLaMA,cuda
From: https://www.cnblogs.com/white-the-Alan/p/18679858

相关文章

  • 【人工智能】:搭建本地AI对话系统——Ollama、LobeChat和Go语言的全方位实践指南
    前言随着自然语言处理(NLP)技术的快速发展,越来越多的企业和个人开发者寻求在本地环境中运行大型语言模型(LLM),以确保数据隐私和提高响应速度。Ollama作为一个强大的本地运行框架,支持多种先进的LLM,并提供了易于使用的API接口。本文将详细介绍如何通过Ollama构建一个高效、安全......
  • 星海智算:Llama3.2 Vision使用教程
    (一)前言​1、磁盘空间​占用33G磁盘,预留了近67G磁盘空间以供用户使用。2、模型介绍​Llama3.2-Vision多模态大型语言模型(LLM)集合是一个包含11B和90B尺寸的指令微调图像推理生成模型的集合(文本+图像输入/文本输出)。Llama3.2-Vision指令微调模型针对视觉识别......
  • 开发者成功在Xbox 360上运行Llama语言模型,挑战老旧硬件极限
    在人工智能技术快速发展的今天,如何在各种硬件上实现高效的模型推理成为了开发者们的一项重要挑战。最近,开发者AndreiDavid从一台近二十年的Xbox360游戏机中找到了灵感,他成功地将MetaAI的LlamaLLM系列中的一款轻量级模型——llama2.c移植到这台老旧的游戏机上。......
  • 构建本地知识库:基于 LangChain 和 Ollama 的 RAG 实现教程
    构建本地知识库:基于LangChain和Ollama的RAG实现教程简介在这个教程中,我们将学习如何构建一个本地运行的知识库系统,它能够让用户上传PDF或TXT文档,并通过自然语言与文档内容进行交互。这个系统使用了RAG(检索增强生成)技术,结合了LangChain、Ollama和Streamlit......
  • vscode插件continue结合ollama自动生成代码
    vscode插件continue结合ollama自动生成代码ollama安装ollama安装见https://www.cnblogs.com/jokingremarks/p/18151827中的前部分,懒得再写了vscode中continue的安装可以直接在vscode的扩展中安装插件,也可以去下载这个插件,然后应用在vscode中一般都会选择直接去扩展中安装,在......
  • 【从零开始系列】Qwen2.5 & Llama-Factory:开源语言大模型+训练平台——(超详细、最新版
    目录一、简介        1.Qwen2.5:开源模型        2.LLaMA-Factory:微调工具二、环境搭建       1.Python和Pytorch版本        2.llamafactory项目克隆安装       3.其他重要库安装三、模型微调       1.预训练模......
  • 微软正式开源超强小模型Phi-4 性能测试超越GPT-4o、Llama-3.1
    微软近期在HuggingFace平台上发布了名为Phi-4的小型语言模型,这款模型的参数量仅为140亿,但在多项性能测试中表现出色,超越了众多知名模型,包括OpenAI的GPT-4o及其他同类开源模型如Qwen2.5和Llama-3.1。在之前的在美国数学竞赛AMC的测试中,Phi-4获得了91.8分,显著优......
  • Ollama REST API模型调用小试
    OllamaRESTAPI模型调用小试在上一篇文章中,我们已经完成了Ollama的安装部署以及模型的基本使用。接下来,我们将通过RESTAPI的方式调用Ollama模型,实现更灵活的集成和应用。启动Ollama服务在调用RESTAPI之前,确保Ollama服务已经启动。可以通过以下命令启动服务:olla......
  • Ollama部署及模型功能使用
    Ollama部署及模型功能使用Ollama官网Ollama官方GitHub源代码仓库安装部署本地安装自动安装curl-fsSLhttps://ollama.com/install.sh|sh手动安装具体安装及环境配置详见:https://github.com/ollama/ollama/blob/main/docs/linux.mddocker安装docker-compose.ymlve......
  • 使用Ollama和OpenAI实现多查询RAG的实践指南
    在本文中,我们将深入探讨如何使用Ollama和OpenAI来实现基于多查询检索增强生成(RAG)的应用。多查询检索器通过将用户的输入查询转换为多个不同视角的查询,从而在更广泛的背景下检索相关文档。这种方法可以提升答案生成的准确性和丰富性。技术背景介绍RAG(Retrieval-AugmentedG......