首页 > 其他分享 >AI | LLaMA-Factory 一个好用的微调工具

AI | LLaMA-Factory 一个好用的微调工具

时间:2024-06-01 17:00:05浏览次数:13  
标签:LLama AI 模型 微调 Factory LLMs LLaMA

‘’

LLama Factory,这个工具能够高效且低成本地支持对 100 多个模型进行微调。LLama Factory 简化了模型微调的过程,并且易于访问,使用体验友好。此外,它还提供了由 Hiyouga 提供的 Hugging Face 空间,可用于对模型进行微调。

下载LLaMA-Factory

​
#下载LLaMA-Factory
git clone https://github.com/hiyouga/LLaMA-Factory.git
#创建一个环境
conda create -n llama_factory python=3.10
#切换到llama_factory环境
conda activate llama_factory
#进入到LLaMA-Factory目录下
cd LLaMA-Factory
#下载LLaMA-Factory所需要的包
pip install -r requirements.txt

​

开始

启动页面:

python src\train_web.py

进入可视化页面:

支持 Lora 和 GaLore 配置,以减少 GPU 的使用。用户可以通过简单的滑块轻松更改参数,如 dropout、epochs、批次大小等。同时,也有多个数据集选项可供选择以微调你的模型。正如本文所述,LLama Factory支持许多模型,包括不同版本的 LLama、mistral 和 Falcon。它还支持像 galore、badm 和 Lora 这样的高级算法,提供诸如flash attention、位置编码和缩放等各种功能。

此外,你还可以集成像 TensorBoard、VanDB 和 MLflow 这样的监控工具。为了更快地进行推理,你还可以使用Gradio 和 CLI。本质上,LLama Factory 提供了一系列多样化的选项,以增强模型性能并简化微调过程。

LLaMA-Factory有自带的数据集也可以自己生成数据集然后导入:

自制微调数据集代码下载地址:

https://github.com/KevinFanng/makeChatGLM3FinetuneData/blob/main/finetunningData_for_qwen_piliang.py

自制微调数据集代码读取Excel示例:

https://github.com/KevinFanng/makeChatGLM3FinetuneData/blob/main/%E5%8E%9F%E5%A7%8B%E6%95%B0%E6%8D%AE%E6%A0%BC%E5%BC%8F.xlsx

 自制微调数据集代码关键注释:

预览命令:

开始微调,点击开始:

微调所需要的时间百分比:

报错:

我当时跑的期间也会有报错,但是只要跟着教程走,就不会错,当时我的报错是关于torch版本的问题,原因是没有下载对应cuda的torch, 我当时候的解决方案是去torch官网下载对应自己版本的cuda。

进入PyTorch官网:PyTorch(魔法)

Windows+R打开cmd小黑框:

查看你的cuda版本:nvidia-smi

找到对应的cuda版本下载即可!

可视化界面偶尔可能也出现报错,我们重新刷新页面即可继续

结语

有效的微调已成为大型语言模型(LLMs)适应特定任务的必要条件之一。然而,这需要一定的努力,有时也相当具有挑战性。随着 Llama-Factory 的引入,这一全面的框架让训练更加高效,用户无需编写代码即可轻松为超过 100 个 LLMs 定制微调。

现在,很多人对大型语言模型(LLMs)更加好奇,有这样想法的开发者可以试试 Llama-Factory 是否可以调整自己的模型。这有助于开源社区的成长和活跃。Llama-Factory 正变得广为人知,甚至已被列入 Awesome Transformers3 中,作为高效微调 LLMs 的工具。

我们希望本文能鼓励更多开发者使用这一框架来创建有价值的 LLMs。不过请记得,在使用Llama-Factory微调LLMs时,遵守模型的许可规则很重要。

至此,本文结束。我们看到了如今在几分钟内微调任何模型是多么容易。我们还可以使用 Hugging Face CLI 将这个模型推送到 Hugging Face Hub 上。

标签:LLama,AI,模型,微调,Factory,LLMs,LLaMA
From: https://blog.csdn.net/ll253q/article/details/139311386

相关文章

  • 轻松学AI:数字人系统源码部署简易教程“
    随着短视频领域的迅猛发展,数字化概念已经成为我们生活中不可或缺的一部分。在数字化的大潮中,数字人源码部署(源码部署:ai6ai69)成为了一个热门的商业风口项目。很多企业和个人创业者开始关注并探索如何选择适合自己的数字人源码部署方案。在选择数字人系统源码厂家时,我们需要明......
  • AI发展的浪潮:回顾、现状与未来展望
    在科技日新月异的今天,人工智能(AI)技术以其独特的魅力和潜力,成为推动社会进步的重要力量。从简单的自动化任务到复杂的决策支持系统,AI正在逐步渗透到我们生活的每一个角落,为我们带来了前所未有的便利和可能。本文将带您回顾AI的发展历程,探讨当前的应用现状,以及展望未来的发展趋势......
  • 文字游侠丨AI怎么一键创作图文挣米?原来真的这么简单高效!附上渠道和指导教程!
    今时今日,在头条上或图文创作平台如何利用AI技术盈利?文字游侠又是什么?如何操作文字游侠?文字游侠是否值得信赖?作为该项目的亲身实践者,肯定得捞干货和大家说一说,码字不易,看完记得点赞收藏!一、文字游侠是什么?靠谱不?文字游侠可谓是文章改写的神器,此工具可依据原文内容进行二次编......
  • centos7安装jq报错No package jq available
    安装EPEL仓库sudoyuminstallepel-release清理软件仓缓存sudoyumcleanall重建软件仓缓存sudoyummakecache重新安装jqyuminstalljq......
  • 科技早报 | 微信辟谣“微信支付被要求降低市场份额”;英特尔、谷歌、微软等数家公司组
    微信:“微信支付被要求降低市场份额”系谣言5月31日,微信官方辟谣平台“谣言过滤器”发文称,近日有外媒报道称,微信支付被要求降低市场份额,引发市场关注。经确认,相关传闻不实,纯属谣言。余承东:等特斯拉FSD入华后,华为智驾有信心干翻对手5月31日消息,在问界新M7焕新发布会上,华为常务......
  • 一系列离谱答案出现后 谷歌对“AI概览”功能进行了紧急修复 | 最新快讯
    财联社6月1日讯(编辑牛占林)当地时间周五,科技巨头谷歌宣布,在发现“AI概览”(AIOverviews)功能出现了一系列错误信息后,已经对其AI系统进行了“十多项技术改进和更新”。在5月中旬的年度I/O开发者大会上,这家科技巨头发布了众多有关AI的产品和服务,其中一项内容是将AI融进其主导全......
  • OrangePi AIpro 快速上手初体验——接口、样例和目标检测
    ​一、开发板简介OrangePiAIpro开发板是香橙派联合华为精心打造的高性能AI开发板,其搭载了昇腾AI处理器,可提供8TOPSINT8的计算能力,内存提供了8GB和16GB两种版本。可以实现图像、视频等多种数据分析与推理计算,可广泛用于教育、机器人、无人机等场景。下面让我......
  • centos 重启挂载错误 failed to mount /backup
    方法一重新挂载即可1、错误界面登录 2、查看错误日志journalctl-xb 3、查到是failedtomount/backup挂载错误,打开fstab文件vi/etc/fstab 4、退出重启,卸载后重新挂载,再次打开 vi/etc/fstab取消注销,重启即可umount/dev/sdb1/backupmount/dev/sdb1......
  • 【Azure App Service】.NET代码实验App Service应用中获取TLS/SSL 证书 (App Service
    在前一篇文章中,我们是把.NET8应用读取SSL证书(X509)示例部署在AppServiceWindows环境中,那么如果部署在Linux环境,以及LinuxContainer中呢?根据前文中的第一种方法,直接在把证书文件包含在源文件中,通过相对路径读取证书文件的方式,经测试,可以正常工作。但是,对于第二种“通过指......
  • python 通过 subprocess 运行的代码 exit(1) 不能使得pipeline fail
    在使用Python的subprocess模块运行外部命令时,如果你希望子进程的退出状态码能够影响Python脚本的执行结果,尤其是在使用管道(pipeline)时,你需要手动检查子进程的返回码并采取相应的措施。简单地使用subprocess.run或subprocess.call运行子进程并不会自动使Python脚......