首页 > 其他分享 >初识AI大模型,ollama使用,llama factory大模型微调,lama.cpp模型转换guff

初识AI大模型,ollama使用,llama factory大模型微调,lama.cpp模型转换guff

时间:2024-11-06 16:41:25浏览次数:1  
标签:lama 训练 AI ollama 模型 merge lora 目录

  最近了解了下生成式AI对话,下面是自己的一些尝试记录。

  • ollama 安装及使用

  1、安装

  我是在windows环境下安装的,很简单,访问:https://ollama.com/ ,下载windows安装包,打开安装就行了。

  cmd输入ollama -v检验是否安装成功。

      

  2、配置

  在环境变量的用户变量中加入如下几个:

  

   OLLAMA_HOST ollma服务启动的端口。

  OLLAMA_MODELS 模型下载保存的位置。

  OLLAMA_ORIGINS 绑定访问的ip。这里*号就是整个局域网都可以访问。

  3、使用

  下面是api的调用,model就是要使用的模型名字,prompt就是输入指令。ollama提供很多接口,有兴趣查官网查查询。

       

   接下来说下常见的命令行指令

  ollama list 查询已安装的模型。

       ollama run xxx 启动模型,如果模型没安装会自动下载,模型下载地址:library (ollama.com)

  ollama rm xx   删除已安装的模型

  • llama factory 使用

  1、下载

  访问 GitHub - hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs (ACL 2024) 下载源码,当然也可以通过docker等方式,我这里使用源码启动。请保证本地有python环境。

     下载解压后在项目目录执行如下命令:

     pip install -e ".[torch,metrics]"

     2、启动

    执行 llamafactory-cli webui。会自动打开浏览器,就进入了微调训练的web界面。

 

   3、训练数据集准备

  在data目录下新建一个自定义文件,格式参考identity.json,这里的训练数据非常重要,在最近的学习中了解到数据会影响后续的训练结果,并且这个数据阶段还有很重要的岗位。

  自定义数据准备好后,在dataset_info.json文件中增加对应的描述,还是参考identity部分的数据。

  4、模型微调训练

  在web界面选择训练的基座模型,因为我电脑没有显卡,这里选择的最小的通义千问1.5版本的0.5B模型。然后训练方式选择lora模型,数据集选择你新增的数据。点击开始训练就可以开始了。

  我这里训练了50个数据参数,因为没有显卡的原因,所以很慢。

      

 

  • 模型合并

  微调训练完成后,在目录的saves文件夹下就有你训练的结果,以基座模型/自定义的输出目录命名。因为我们使用的lora方式训练,需要把基座模型和我们训练的结果合并。至于啥是lora模式,感兴趣的可以网上搜下。

  在examples/merge_lora目录下新建自己的yaml配置文件。

  model_name_or_path 基座模型地址,如果不知道去哪里下,搜索魔塔社区。

  adapter_name_or_path  微调训练模型地址,就是上面说的训练输出的目录。

  export_dir  合并后导出的目录。

   

      

   文件创建后,在项目目录执行如下命令合并。

  llamafactory-cli export examples/merge_lora/myqwen_merge.yaml 

  • 模型转换

  1、编写配置文件

  在合并后导出的目录新建一个Modelfile文件,注意没有文件格式,文件内容:FROM E:\LLaMA-Factory-main\merge_mode_lora\myqwen\my_qwen.gguf

  

   2、llama.cpp下载

  下载地址:GitHub - ggerganov/llama.cpp: LLM inference in C/C++

  解压后cmd进入目录,执行:

  python convert_lora_to_gguf.py  E:\LLaMA-Factory-main\merge_mode_lora\myqwen --outtype f16 --vocab-type bpe --outfile E:\LLaMA-Factory-main\merge_mode_lora\myqwen\my_qwen.gguf

  E:\LLaMA-Factory-main\merge_mode_lora\myqwen 就是合并的模型目录,E:\LLaMA-Factory-main\merge_mode_lora\myqwen\my_qwen.gguf就是模型转换的路径和模型名称。

      

 

  • 导入模型

  cmd进入模型转换的输出目录,执行 ollama create my_qwen -f Modelfile 开始导入模型。

  然后使用ollama list查看是否导入成功,使用ollama run my_qwen 就可以使用我们新的模型了。

 

  总得来说,有很多包都需要自己想办法,不然要么就下载很慢,要么根据就不能下载。想要自己的微调模型在垂直领域的问答有一定效果,首先得要硬件支持,其次得要海量的有效数据支持,目前我这两都达不到,就当学习了。

标签:lama,训练,AI,ollama,模型,merge,lora,目录
From: https://www.cnblogs.com/rolayblog/p/18530365

相关文章

  • {AI现在的发展趋势!!!以及方向}
    前言:随着AI技术的飞速发展,AI大模型正以其强大的数据处理能力和广泛的应用前景,引领着软件开发行业的新一轮变革。       1.AI大模型的定义与发展历程    AI大模型是指具有海量参数、能够处理海量数据、具备强大泛化能力的深度学习模型。这些模型通过大量的数......
  • 推荐文多多AiPPT的iFrame集成方案:为开发者赋能
    文多多AiPPT|一键搞定PPT文多多AiPPT,一键搞定PPT。AI根据主题、文档、网址智能生成PPT文档,同时支持在线编辑、美化、排版、导出、一键动效、自动生成演讲稿等功能,告别工作烦恼!https://docmee.cn/文多多AiPPTiFrame集成方案概述文多多AiPPT提供的iFrame方案允许开发者通过......
  • 精准、智能、高效:AI平台如何提升医疗数据处理效率50%
    思通数科的大模型是一款集成自然语言处理、多模态分析与知识图谱技术的智能系统,专为提升行业信息处理效率和决策支持而设计。该模型依托深度学习与数据驱动,能够在合同审查、智能问答、医疗文本处理等场景中实现精准的文本分类、信息抽取与风险识别。特别在多模态数据处理方面,模型......
  • OpenAI 的 正式版o1 模型意外泄露,推理能力真是震撼——事情是这样的
    序言:无论OpenAI出于何种原因,用户的期待和认可都是关键。这次o1模型的泄露事件意外引发热议,也让用户有机会一窥o1的强大潜力。虽然OpenAI已推出o1-preview和o1-mini供用户试用,性能有所提升,但仍未展现最终模型的完整能力。完整版本的意外泄露让人们看到了它真正的实力,......
  • ssm052游戏攻略网站的设计与实现+vue(论文+源码)-kaic
      毕业设计(论文)题目:游戏攻略网站设计与实现      摘 要现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集中处理数据信息的管理方式。本游戏攻略网站就是在这样的大环境下诞生,其可以帮助管理者在短时间内处理完......
  • ssm051网上医院预约挂号系统+jsp(论文+源码)_kaic
      本科毕业设计论文题目:网上医院预约挂号系统设计与实现系   别:XX系(全称)专    业:软件工程班   级:软件工程15201学生姓名:学生学号:指导教师:导师1       导师22021年5月摘  要如今的信息时代,对信息的共享性,信息......
  • 算法网关视频分析网关室内消防逃生通道占用工厂企业消防安全AI视频智能监管解决方案
    在当前的企业运营中,消防安全管理是保障人员安全和企业资产不受损失的关键环节。然而,传统的消防安全监管方式往往面临着人力资源有限、技术手段不足等问题,导致无法及时有效地发现和处理潜在的火险隐患。为了应对这一挑战,算法网关视频分析网关利用先进的物联网技术,实现了对火灾风险......
  • RAID
    1.RAIDRAID0:最少1块硬盘、总容量=硬盘数x硬盘容量、没有数据冗余备份。坏1块则全部数据坏。但是读写性能很高RAID1:2块硬盘、总容量=总硬盘容量的一半、数据镜像备份。坏1块硬盘不影响全盘存储。读取性能提升,但写入性能略有降低RAID5:至少需要3块硬盘组成、总容量=n-1/n(n......
  • Air780E的I2C软件使用指南
    ​ 今天我们学习合宙低功耗4G模组Air780E的I2C接口操作方法,文末【阅读原文】获取最新资料。一、I2C概述Air780E可支持1路I2C接口,如果复用的话最多有两路: ​I2C配置:兼容PhilipsI2C标准协议。支持Fastmode(400Kbps)和Slowmode(100Kbps)。只支持master模式,不支持slaver模式......
  • 新建一个react+vite+tailwindui项目
    创建Vite项目使用Vite创建一个新的React项目:npmcreatevite@latestmy-react-app--templatereactmy-react-app是你的项目名称,你可以根据需要更改。进入项目目录进入你刚刚创建的项目目录:cdmy-react-app安装TailwindCSS在项目中安装TailwindCSS及其依......