- 2024-08-29ggml 简介
ggml是一个用C和C++编写、专注于Transformer架构模型推理的机器学习库。该项目完全开源,处于活跃的开发阶段,开发社区也在不断壮大。ggml和PyTorch、TensorFlow等机器学习库比较相似,但由于目前处于开发的早期阶段,一些底层设计仍在不断改进中。相比于llama.cpp和whispe
- 2024-07-22使用Ollama部署非官方仓库模型(Windows)
一、从GitHub拉去llama.cpp项目gitclonehttps://github.com/ggerganov/llama.cpp下载完成后在当前目录的路径输入cmd,进入命令行二、安装python执行的相关依赖执行pipinstall-rrequirements.txt三、下载模型文件依赖安装成功后开始转换模型这里以魔塔上的C
- 2024-05-13GGML 非官方中文文档
_CRT_SECURE_NO_DEPRECATE类型:宏定义描述:禁用Windows上荒谬的“不安全”警告。_USE_MATH_DEFINES类型:宏定义描述:在MSVC上使用M_PI。GGML_DEBUG类型:宏定义描述:定义调试级别。GGML_GELU_FP16类型:宏定义描述:定义GELU函数的浮点数精度为16位。GGML_GELU_QUICK_FP
- 2024-03-12LLM 推理和应用 开源框架梳理
之前对LLM推理和应用了解不多,因此抽时间梳理了一下,我们从模型量化,模型推理,以及开发平台等三个层面来梳理分析。模型量化模型训练时为了进度,采用的32位浮点数,因此占用的空间较大,一些大的模型需要很大的显存才能加载,且计算推理过程较慢。为了减少内存占用,提升推理速度,可以将高精
- 2023-11-26ggml教程|mnist手写体识别量化推理
title:ggml教程|mnist手写体识别量化推理banner_img:https://cdn.studyinglover.com/pic/2023/11/fa14d6dfd95fb9d38276a50a5519e2d2.webpdate:2023-11-1218:49:00ggml教程|mnist手写体识别量化推理MNIST手写体识别是经典的机器学习问题,可以被称作机器学习的helloworld
- 2023-11-08ChatGLM.cpp的量化处理
chatglm.cpp的一个主要特点就是以量化的形式对大模型进行优化,使其在CPU上能够进行高效推理。本文主要查看chatglm.cpp是如何对模型进行量化的chatglm.cpp在使用时主要分成两步:使用convert.py将模型进行量化,得到ggml格式使用./build/bin/main进行模型调用convert.py截至
- 2023-09-18解决 ChatGLM.CPP+clBlast 编译错误(也适用于SD.CPP)
首先安装OpenCL和clblast:vcpkginstallopenclclblast下载GitHub上的源码:gitclone--recurse-submoduleshttps://github.com/li-plus/chatglm.cppcdchatglm.cpp这个项目GGML子仓库中,third_party/ggml/src/CMakeList.txt有个错误。打开并找到178-183行: find_
- 2023-09-08【Python 自动化】小说推文一键生成思路概述
最近看了一下小说推文成品软件的思路,发现可以完全迁移到我的BookerAutoVideo上面来。这篇短文里面,我试着分析一下整个推文视频生成的流程,以及简要阐述一下有什么工具。整体流程是这样:分句原文是按照段落组织的,我们可能希望按照句子生成图片。于是我们需要把段落拆成句子,像这
- 2023-07-20使用GGML和LangChain在CPU上运行量化的llama2
MetaAI在本周二发布了最新一代开源大模型Llama2。对比于今年2月发布的Llama1,训练所用的token翻了一倍,已经达到了2万亿,对于使用大模型最重要的上下文长度限制,Llama2也翻了一倍。在本文,我们将紧跟趋势介绍如何在本地CPU推理上运行量化版本的开源Llama2。 https: