首页 > 其他分享 >【ollama】手把手教你布置本地大语言模型 以及各种常见用途#如何加载guff模型到ollama #如何更改ollama目录

【ollama】手把手教你布置本地大语言模型 以及各种常见用途#如何加载guff模型到ollama #如何更改ollama目录

时间:2024-07-29 22:18:20浏览次数:11  
标签:gpt4 Q2 open 模型 guff 8x7b ollama

image

ollama介绍

Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。

以下是其主要特点和功能概述:

  1. 简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。

  2. 轻量级与可扩展:作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。

  3. API支持:提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。

  4. 预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。

运行界面:image

配合ChatBOX使用可以更加舒适
image

安装与使用

软件下载

整合包地址:https://ousnb-my.sharepoint.com/:f:/g/personal/main_bgx_ink/Ek-I7CLsv5JEj6BhIc0MUCkBsexEsqxLFH-7dpER1pY06A?e=i2hGla

如果地址失效请分别到ollama和chatbox的官网下载安装包:
ollama:https://ollama.com/
chatbox:https://chatboxai.app/zh

安装

下载完毕后进行解压,可以得到以下两个文件
image
分别打开进行安装
image
image

安装完成

待安装完毕后,打开命令行输入ollama -v,若返回版本号,则说明ollama安装成功
image

ollama的配置与使用

我们上ollama的官方网站仓库里面

image
可以看到许多的模型,点击自己喜欢的模型,并选择所需要的版本
这里以llama3.1模型8B为例子:

image
复制右上方的代码ollama run llama3.1至命令行内,模型会自行开始下载
image
(由于镜像站在境外,所以连接比较弱,速度慢可以重试几次,正常下载速度绝不止100kb/s)

ollama使用

等下载完毕之后我们在命令行输入ollama list查看模型是否下载完成
image

若看到大概如上,我们便可以进入下一步,我们在命令行输入ollama run <模型名称>,我这里用llama3做示范:ollama run llama3.1:8b
image
看到这个界面便是大功告成了!

chatbox使用

chatbox打开后界面如下
image
我们点进去左下角的设置
image
将模型提供方设置为ollama本地
api默认
模型设置为所需模型

image
点击保存
便可以开始对话,轻松简单
image

关于ollama的那些事

我在黄面下载了gguf模型,如何把gguf模型加载到ollama里面呢?

我们下面以opengpt4为例:
我有一个文件名字为open_gpt4_8x7b.Q2_K.gguf的模型
这时我们在同一个目录下新建一个文本文档,
在里面写入FROM ./<gguf文件名字>,比如我这里是:
FROM ./open_gpt4_8x7b.Q2_K.gguf
保存后将名字改为open_gpt4_8x7b.Q2_K,将txt后缀改为modelfile
即:open_gpt4_8x7b.Q2_K.modelfile
image

然后我们在命令行输入:ollama create open_gpt4_8x7b.Q2_K -f open_gpt4_8x7b.Q2_K.modelfile
成功的话会提示success
image

更改模型目录

更改默认的模型目录其实很简单
在想要用来储存的盘新建一个文件夹,并复制地址,
image
在系统设置里面新建系统环境变量:
image
完成后点击确定 再点击上一层的确定。
image
然后关闭ollama,再开启就可以更改模型目录了

标签:gpt4,Q2,open,模型,guff,8x7b,ollama
From: https://www.cnblogs.com/ousw/p/18331185

相关文章

  • 深度模型中的优化 - 参数初始化策略篇
    序言在深度模型优化中,参数初始化策略是决定模型性能与训练效率的重要基石。恰当的初始化不仅能加速模型的收敛过程,还能有效缓解梯度消失与爆炸等问题,从而提升模型的泛化能力。随着深度学习技术的飞速发展,研究者们不断探索与提出各类参数初始化方法,旨在针对不同模型结构和数......
  • LONGAGENT:优化大模型处理长文本
    人工智能咨询培训老师叶梓转载标明出处有的大模型(LLMs),尽管在语言理解和复杂推理任务上取得了显著进展,但在处理这些超长文本时却常常力不从心。它们在面对超过10万令牌的文本输入时,常常会出现性能严重下降的问题,这被称为“中间丢失”现象。这一问题不仅限制了LLMs在实际应用......
  • Laravel序列化解码:深入Eloquent模型的序列化机制
    Laravel序列化解码:深入Eloquent模型的序列化机制引言Laravel作为一门优雅的PHPWeb开发框架,提供了许多便利的功能来简化开发过程。其中一个强大而易用的功能便是模型的序列化。序列化是将对象状态转换为可以存储或传输的格式的过程。在Laravel中,EloquentORM支持模型的自......
  • 动态A/B测试:在Mojo模型中实现模型比较的智能策略
    动态A/B测试:在Mojo模型中实现模型比较的智能策略引言在机器学习模型的开发和部署过程中,A/B测试是一种关键的方法,用于比较不同模型版本或不同算法的性能。Mojo模型,通常指的是H2O.ai框架中导出的模型,支持在多种环境中运行预测。实现Mojo模型的自定义A/B测试不仅可以帮助我们......
  • 一个小时内快速部署大模型
    这个教程有以下几部分构成:硬件配置概念介绍实操测试结果1.硬件配置本文使用的方法配置要求低,没有gpu也可以正常使用(就是有点慢),不管是windows还是linux,都可以无障碍使用大模型,有脚就行,废话少说,let'srock!2.概念介绍几个部署要用到的概念,工具和项目huggingface:......
  • 借助大语言模型快速升级你的 Java 应用程序
    大家都知道我爱小Q。在我“转码”的征程中,它就像上帝之手,在我本该枯燥漫长的学习进程中拉满快进条。不仅是我,最近AmazonQDeveloper还帮助Amazon一个由5人组成的团队在短短两天内将1,000多个生产应用程序从Java8升级到Java17(每个应用程序的平均时间不到10分钟)。......
  • 探索:如何利用和训练overfitting的模型
    在机器学习中,过拟合模型通常被视为一个问题,但它们在多个方面也具有实际应用价值。以下是对利用过拟合模型进行调试、教学、基准测试、竞赛、特征重要性分析、对抗性测试、模型集成、迁移学习等方法的总结。首先,调试和理解模型行为是一个重要应用领域。通过分析过拟合模型在......
  • Amazon Bedrock 模型微调实践(一):微调基础篇
    本博客内容翻译自作者于2024年7月在亚马逊云科技开发者社区发表的同名博客:“MasteringAmazonBedrockCustomModelsFine-tuning(Part1):GettingstartedwithFine-tuning”:https://community.aws/content/2jNtByVshH7vnT20HEdPuMArTJL?trk=cndc-detail亚马逊云科技......
  • 开启内卷!国内视频生成模型再添新成员!免费低排队助你快速开始
    前言......
  • 大模型面经之bert和gpt区别
            BERT和GPT是自然语言处理(NLP)领域中的两种重要预训练语言模型,它们在多个方面存在显著的区别。以下是对BERT和GPT区别的详细分析。一、模型基础与架构BERT:全称:BidirectionalEncoderRepresentationsfromTransformers。架构:基于Transformer的编码器部......