首页 > 其他分享 >LLaMA-Factory

LLaMA-Factory

时间:2024-08-22 16:49:24浏览次数:8  
标签:llamafactory Factory yaml bitsandbytes LLaMA lora

LLaMA-Factory是一个整合了主流的各种高效训练微调技术、适配主流开源模型、功能丰富、适配性好的训练框架。

安装LLaMA Factory

conda create -n llamafactory python=3.8.0
conda activate llamafactory

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

pip install -e ".[torch,metrics]"

如果要在windows上开启量化LoRA(QLoRA),需要安装预编译的bitsandbytes库,支持CUDA11.1 - 12.2,根据CUDA版本自行选择合适的版本

https://github.com/jllllll/bitsandbytes-windows-webui/releases/tag/wheels

pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl

如果要在windows上开始FlashAttention-2,需要安装预编译的flash-attn库,支持CUDA12.1 - 12.2,根据CUDA版本自行选择安装

https://github.com/bdashore3/flash-attention/releases

数据准备

LLaMA-Factory的/data路径下有数据集的示例,数据形式为

[
 {
   "instruction": "hello",
   "input":"",
   "output":"Hi, i can sing,dance and play basketball."
 },

 ...

 {
   "instruction": "",
   "input":"",
   "output":""
 }
]

使用自己的数据集时需要在/data路径下的dataset_info.json中将自己的数据集更新进去

快速开始

如下三行命令可以分别对Llama3-8b-Instruct模型进行LoRA微调、推理、合并

llamafactory-cli train examples/lora_single_gpu/llama3_lora_sft.yaml
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

指令操作的参数调整在对应的yaml文件中进行修改

高级用法参考examples/README.md

LLaMA Board 可视化微调(由Gradio驱动)

llamafactory-cli webui

127.0.0.1

 

标签:llamafactory,Factory,yaml,bitsandbytes,LLaMA,lora
From: https://www.cnblogs.com/Liang-ml/p/18373531

相关文章

  • 本地快速安装运行史上最强开源LLaMa3大模型
    https://liaoxuefeng.com/blogs/all/2024-05-06-llama3/ 史上最强开源AI大模型——Meta的LLaMa3一经发布,各项指标全面逼近GPT-4。它提供了8B和70B两个版本,8B版本最低仅需4G显存即可运行,可以说是迄今为止能在本地运行的最强LLM。虽然LLaMa3对中文支持不算好,但HuggingFace上很快......
  • 大模型算法必学,万字长文Llama-1到Llama-3详细拆解
    导读Llama系列的大语言模型在多个自然语言处理任务中表现出色,包括文本分类、情感分析和生成式问答,本质是使用Transformer架构并结合预训练和微调技术。本文详细讲解Llama-1到Llama-3,值得读者点赞收藏!引言在AI领域,大模型的发展正以前所未有的速度推进技术的边界。北京......
  • ollama搭建本地ai大模型并应用调用
    1、下载ollama1)https://ollama.com 进入网址,点击download下载2)下载后直接安装即可。2、启动配置模型默认是启动cmd窗口直接输入1ollamarunllama3启动llama3大模型 或者启动千问大模型1ollamarunqwen2启动输入你需要输入的问题即可 3、配置UI界面安装......
  • 【实战教程】手把手教你微调热门大模型 Llama 3
    Llama3近期重磅发布,发布了8B和70B参数量的模型,我们对Llama3进行了微调!!!今天手把手教大家使用XTuner微调Llama3模型。Llama3概览首先我们来回顾一下Llama3亮点概览~首次出现8B模型,且8B模型与70B模型全系列使用GQA(GroupQueryAttention)。最......
  • 全面指南:LLMs中的Llama-3模型——简介、安装教程、使用技巧及案例实践详解
    LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略导读:2024年4月18日,Meta重磅推出了MetaLlama3,本文章主要介绍了Meta推出的新的开源大语言模型MetaLlama3。模型架构Llama3是一种自回归语言模型,采用了优化的Transformer架构。调优版本使用了监督......
  • HttpClient、IHttpClientFactory、HttpClientHandler 和 HttpMessageHandler 的生命周
    在C#中,HttpClient、IHttpClientFactory、HttpClientHandler和HttpMessageHandler的生命周期密切相关,它们共同影响着网络请求的性能、资源管理和可靠性。以下是它们的生命周期分析:1.HttpClient的生命周期默认行为:HttpClient是线程安全的,设计为可以在应用程序的整个生命......
  • 在 C# 中处理 HttpClient 实例时,使用单例模式和 IHttpClientFactory,DNS缓存问题
    在C#中处理HttpClient实例时,使用单例模式和IHttpClientFactory都有各自的优缺点,尤其是在高并发情况下。以下是它们的对比及性能考虑:1.单例模式使用HttpClient优势:减少资源消耗:HttpClient是设计为复用的类,创建一个单例可以避免频繁创建和销毁HttpClient实例,从而减......
  • 开源最强Llama3.1 部署本地知识库应用
    一.环境介绍高性能应用服务HAI拥有丰富的预装应用,可以将开源社区的前沿模型快速转化为您专有的部署实践,一键拉起,即开即用。现已支持在HAI购买页的社区应用中,找到Llama3.1等应用的入口,简单选型后,即可一键启动推理服务。Chatchat项目介绍该项目利用langchain思想,实现......
  • Ollama
    BiliBili视频官网:https://ollama.com/GitHub:https://github.com/ollama/ollama官方文档(GitHub):https://github.com/ollama/ollama/tree/main/docs标签:对话型,客户端,开源大模型网络部分需要访问GitHub,可以使用WattToolkit免费工具访问容器镜像,国内镜像被禁用,下载可查看......
  • 使用 Ollama 集成 GraphRag.Net:一步步教你如何实现
            在当今的技术世界,人工智能(AI)正在以惊人的速度发展。对于开发者来说,使用最新的工具和框架来提升工作效率至关重要。而在AI领域,GraphRag.Net作为一个强大的图算法框架,允许我们以高效的方式进行数据处理。同样,Ollama作为一个开源的、简单易用的AI模型部......