• 2024-06-18【ai】如何在ollama中随意使用hugging face上的gguf开源模型
    【背景】ollama的pull命令可以直接pullollama列表中现有的模型,但是ollama可以直接pull的模型大都是英语偏好(llama2有直接可以pull的chinese版本),而huggingface上则有大量多语种训练的模型,如果能直接使用huggingface上的gguf开源模型,那就自由多了,本篇介绍方法。【命令】
  • 2024-05-31[机器学习]-如何在 MacBook 上安装 LLama.cpp + LLM Model 运行环境
    如何在MacBook上安装LLama.cpp+LLMModel运行环境1.问题与需求近段时间想学习一下大语言模型的本地化部署与应用。首先遇到的就是部署硬件环境的问题。我自己的笔记本是一台MacBookProM3,没有Nvidia的GPU支持,但机器性能不错。所以打算根据网上资料尝试在自己
  • 2024-05-16GGUF构建ollama模型, 模型怎么量化成GGUF格式
     GGUF构建ollama模型https://zhuanlan.zhihu.com/p/689555159https://www.cnblogs.com/ghj1976/p/18063781/ollama-yun-xing-gguf-mo-xing 模型怎么量化成GGUF格式https://zhuanlan.zhihu.com/p/689555159 Tool:文字生成图片、代码差异比较器、HTML查错器、Llama3在线Link
  • 2024-05-12玩转AI,笔记本电脑安装属于自己的Llama 3 8B大模型和对话客户端
    2024年4月18日,Meta开源了Llama3大模型,把AI的门槛降低到了最低,这是人工智能领域的一个重要飞跃。我们个人也可以部署大模型了,这简直就是给个人开发者发了个大红包!Llama3模型有不同的参数版本,本文主要分享我在个人笔记本电脑是部署8B参数过程和编写客户端,让我们大家
  • 2024-03-15deepseek-coder模型量化
    简介DeepSeek-Coder在多种编程语言和各种基准测试中取得了开源代码模型中最先进的性能。为尝试在开发板进行部署,首先利用llama.cpp对其进行量化。llama.cpp安装gitclone之后进入文件夹make即可,再将依赖补全pipinstall-rrequirements.txt量化可以将模型文件放到lla
  • 2024-03-10Ollama 运行 GGUF 模型
    Ollama默认直接支持很多模型,只需要简单的使用ollamarun命令,示例如下:ollamarungemma:2b就可安装、启动、使用对应模型。可直接支持的模型看:https://ollama.com/library在https://huggingface.co/models上有数万的模型,Ollama默认支持的不可能全部覆盖,那如何支持其它模型
  • 2024-03-09GGUF 模型
    在HuggingFace上,我们时不时就会看到GGUF后缀的模型文件,它是如何来的?有啥特点?https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUFGGUF由来GeorgiGerganov(https://github.com/ggerganov)是著名开源项目llama.cpp((https://github.com/ggerganov/llama.cpp))的创始人,它最大的
  • 2023-11-26ggml教程|mnist手写体识别量化推理
    title:ggml教程|mnist手写体识别量化推理banner_img:https://cdn.studyinglover.com/pic/2023/11/fa14d6dfd95fb9d38276a50a5519e2d2.webpdate:2023-11-1218:49:00ggml教程|mnist手写体识别量化推理MNIST手写体识别是经典的机器学习问题,可以被称作机器学习的helloworld