首页 > 其他分享 >llama.cpp 转化 gguf 文件

llama.cpp 转化 gguf 文件

时间:2024-07-17 21:44:04浏览次数:12  
标签:models gguf 转化 gpt llama cpp 格式

概览

llama.cpp 自带转化工具,把 safetensor 格式的模型文件转化为 gguf 格式,方便用 cpu 进行推理。
需要注意的是,必须连带下载和 safetensor 格式相关的一些配置文件,故转化文件对准的是一个目录。
但同时还要注意,有时模型作者为同一个模型保存了多种框架应用的模型文件,这些文件是没有用的,需要去除。

步骤

  1. 下载并编译 llama.cpp
  2. 先转化为 float16 格式的文件。
  3. 再转化为各种需要的格式。

具体

把转化程序对准 gpt-2 这个目录并转化为 float16 格式

python convert_hf_to_gguf.py models/gpt-2/

看看都可以转化成什么格式,我转化成 Q5_K_M 格式

./llama-quantize -h
./llama-quantize models/gpt-2/ggml-model-f16.gguf models/gpt-2/ggml-model-Q5_K_M.gguf Q5_K_M

试用

/llama-simple -m models/gpt-2/ggml-model-f16.gguf -p "Hello my name is" -n 32

标签:models,gguf,转化,gpt,llama,cpp,格式
From: https://www.cnblogs.com/litifeng/p/18308337

相关文章

  • Ubuntu+Docker+Ollama+WebUI
    Ubuntu备份源文件sudocp/etc/apt/sources.list/etc/apt/sources.list.backup编辑/etc/apt/sources.list#默认注释了源码镜像以提高aptupdate速度,如有需要可自行取消注释debhttps://mirrors.tuna.tsinghua.edu.cn/ubuntu/focalmainrestricteduniversemultivers......
  • 在 Kubernetes 上部署 llama3
    转自:https://zhuanlan.zhihu.com/p/695534674Ollama与OpenWebUI介绍Ollama 是一个运行大模型的工具,可以看成是大模型领域的Docker,可以下载所需的大模型并暴露API。OpenWebUI 是一个大模型的WebUI交互工具,支持Ollama,即调用Ollama暴露的API实现与大模型交互:部署......
  • gdb调试c、cpp源代码方法步骤
    1.代码举例//example.c#include<stdio.h>intaddNumbers(intnum1,intnum2){returnnum1+num2;}intmain(){inta=10;intb=20;intsum=addNumbers(a,b);printf("Thesumis:%d\n",sum);return0;}......
  • PX4学习日志四:PositionControl.cpp代码解读
    首先看boolPositionControl::update(constfloatdt)函数,该函数先进行有效性判断。跳转到_positionControl函数if(valid){_positionControl();分析_positionControl函数3.1通过P控制实现速度调节Vector3fvel_sp_position=(_pos_sp-_pos).emult(_gain_pos_p);......
  • 【01】LLaMA-Factory微调大模型——基础环境配置
    为了构建法律领域的垂直应用大模型,从本文起记录使用LLaMA-Factory微调大模型的过程,以期UU们可以复刻与应用。大语言模型统一高效微调框架(LLaMA-Factory)的详解介绍可见:LLaMA-Factory/README_zh.mdatmain·hiyouga/LLaMA-Factory·GitHubLLaMA-Factory框架旨在简化大型语......
  • Llama - 微调
    本文翻译整理自:https://llama.meta.com/docs/how-to-guides/fine-tuning文章目录微调实验跟踪RecipesPEFTLoRAtorchtuneHuggingFacePEFTLoRAQLoRA微调如果你想通过编写代码来学习,强烈建议你查看了解Llama3notebook。这是一个开始对MetaLlama进行最常见......
  • Unsloth 微调 Llama 3
    本文参考:https://colab.research.google.com/drive/135ced7oHytdxu3N2DNe1Z0kqjyYIkDXp改编自:https://blog.csdn.net/qq_38628046/article/details/138906504文章目录一、项目说明安装相关依赖下载模型和数据二、训练1、加载model、tokenizer2、设置LoRA训练参数3......
  • ollama 模型国内加速下载,制作自定义Modelfile模型文件
    参考:https://www.zhihu.com/question/640579563/answer/3562899008https://github.com/ollama/ollama/blob/main/docs/modelfile.mdgguf格式介绍:https://www.datalearner.com/blog/10517057188355861、ollama模型国内加速下载ollama主要的模型文件格式是gguf,可以在mo......
  • log4cpp的安装及使用
    目录前言安装使用示例代码配置文件编译链接输出前言本文的操作均在ubuntu20.04下进行安装本文仅介绍从源码编译安装log4cpp的过程。①在开始编译前,首先要确保系统中安装了g++,make,autoconf和libtool②下载log4cpp源码下载log4cpp的特定版本并解压,以1.1.3为例:wgethttp://so......
  • MoneyPrinterPlus全面支持本地Ollama大模型
    MoneyPrinterPlus现在支持批量混剪,一键AI生成视频,一键批量发布短视频这些功能了。之前支持的大模型是常用的云厂商,比如OpenAI,Azure,Kimi,Qianfan,Baichuan,TongyiQwen,DeepSeek这些。支持云厂商的原因是现在大模型使用基本都很便宜,并且大厂的稳定性,性能都比本地搭建要好很多......