首页 > 其他分享 >如何在 LobeChat 中使用 Ollama

如何在 LobeChat 中使用 Ollama

时间:2025-01-08 16:45:00浏览次数:1  
标签:Ollama 模型 如何 本地 ollama 环境变量 LobeChat

image

Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。现在,LobeChat 已经支持与 Ollama 的集成,这意味着你可以在 LobeChat 中轻松使用
Ollama 提供的语言模型来增强你的应用。

本文档将指导你如何在 LobeChat 中使用 Ollama:

在 macOS 下使用 Ollama

本地安装 Ollama

下载 Ollama for macOS
并解压、安装。

配置 Ollama 允许跨域访问

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。使用 launchctl​ 设置环境变量:

launchctl setenv OLLAMA_ORIGINS "*"

完成设置后,需要重启 Ollama 应用程序。

在 LobeChat 中与本地大模型对话

接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

在 LobeChat 中与 llama3 对话

在 windows 下使用 Ollama

本地安装 Ollama

下载 Ollama for Windows
并安装。

配置 Ollama 允许跨域访问

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。

在 Windows 上,Ollama 继承了您的用户和系统环境变量。

  1. 首先通过 Windows 任务栏点击 Ollama 退出程序。
  2. 从控制面板编辑系统环境变量。
  3. 为您的用户账户编辑或新建 Ollama 的环境变量 OLLAMA_ORIGINS​,值设为 *​ 。
  4. 点击 OK/应用 ​保存后重启系统。
  5. 重新运行 Ollama​。

在 LobeChat 中与本地大模型对话

接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

在 linux 下使用 Ollama

本地安装 Ollama

通过以下命令安装:

curl -fsSL https://ollama.com/install.sh | sh

或者,你也可以参考 Linux 手动安装指南

配置 Ollama 允许跨域访问

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。如果 Ollama 作为 systemd 服务运行,应该使用 systemctl
​设置环境变量:

  1. 通过调用 sudo systemctl edit ollama.service ​编辑 systemd 服务。
sudo systemctl edit ollama.service
  1. 对于每个环境变量,在 [Service] ​部分下添加 Environment​:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
  1. 保存并退出。
  2. 重载 systemd​ 并重启 Ollama:
sudo systemctl daemon-reload
sudo systemctl restart ollama

在 LobeChat 中与本地大模型对话

接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

使用 docker 部署使用 Ollama

拉取 Ollama 镜像

如果你更倾向于使用 Docker,Ollama 也提供了官方 Docker 镜像,你可以通过以下命令拉取:

docker pull ollama/ollama

配置 Ollama 允许跨域访问

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。

如果 Ollama 作为 Docker 容器运行,你可以将环境变量添加到 docker run​ 命令中。

docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama

在 LobeChat 中与本地大模型对话

接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

安装 Ollama 模型

Ollama 支持多种模型,你可以在 Ollama Library 中查看可用的模型列表,并根据需求选择合适的模型。

LobeChat 中安装

在 LobeChat 中,我们默认开启了一些常用的大语言模型,例如 llama3、 Gemma 、 Mistral 等。当你选中模型进行对话时,我们会提示你需要下载该模型。

LobeChat 提示安装 Ollama 模型

下载完成后即可开始对话。

用 Ollama 拉取模型到本地

当然,你也可以通过在终端执行以下命令安装模型,以 llama3 为例:

ollama pull llama3

自定义配置

你可以在 设置​ -> 语言模型​ 中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。

Ollama 服务商设置

你可以前往 与 Ollama 集成 了解如何部署 LobeChat ,以满足与 Ollama 的集成需求。

标签:Ollama,模型,如何,本地,ollama,环境变量,LobeChat
From: https://www.cnblogs.com/shenhuanjie/p/18660075/use-ollama-in-lobechat-2t1bxl

相关文章

  • 在Java中如何使用wait()和notify()方法
    在Java中,wait()和notify()方法是用于线程间通信的重要同步机制。它们主要用于协调多个线程对共享资源的访问,确保线程安全。以下是对这两个方法的详细解释和使用场景说明:1. wait()方法定义wait()方法使当前线程进入等待状态,直到其他线程调用此对象的notify()或notifyAll()方......
  • 私有化部署视频平台EasyCVR平台如何接入国密GB35114设备(二):平台证书的上传及国密白名单
    GB35114标准主要针对公共安全视频监控联网系统中的信息安全问题,确保视频数据及控制信令的真实性、完整性和保密性。它通过采用国产商用密码技术,构建视频监控系统安全保护技术体系,实现设备认证、视频保密、视频防篡改等功能。EasyCVR视频监控汇聚管理平台以其强大的兼容性和灵活的......
  • 视频汇聚平台EasyCVR如何接入国密GB35114设备(一):设备端证书的生成及平台签发、安装步骤
    在当今的视频监控领域,随着技术的不断进步和安全需求的日益提高,越来越多的项目开始采用更为安全的国密GB35114协议来确保数据传输的安全性和可靠性。EasyCVR视频监控汇聚管理平台凭借其强大的兼容性和灵活的配置,为用户提供了便捷的国密GB35114协议设备接入解决方案。通过EasyCVR平......
  • 如何彻底清理C盘微信聊天记录?方法一览
    彻底清理C盘微信聊天记录,可以通过以下几种方法来实现:一、微信内置功能清理清理缓存:打开微信电脑版,进入“设置”界面。在“通用设置”中,找到并点击“清理缓存”按钮。这将删除微信的一部分临时文件,但可能不包括所有聊天记录。清理聊天记录:同样在“通用设置”中,找到并......
  • IP属地是什么?如何关闭或隐藏IP属地
    在数字化和网络化的今天,IP属地作为我们网络身份的一部分,不仅关乎着我们的网络体验,还与隐私保护紧密相关。然而,很多人对IP属地的概念并不清晰,更不知道如何关闭或隐藏自己的IP属地。本文将详细解析IP属地的含义,并探讨关闭或隐藏IP属地的方法,帮助大家更好地保护自己的网络隐私。......
  • 如何直接向模型传递多模态数据
    在人工智能模型的应用中,多模态数据的处理变得越来越重要。多模态数据指的是同时包含多种输入格式的数据,例如文本和图像。本文将深入探讨如何直接将多模态输入传递给模型,特别是如何利用特定的API接口来实现这一功能。我们将具体演示如何让模型描述图像,帮助您在实际开发中更好......
  • 2025年入职转行网络安全,该如何规划?_网络安全职业规划
    前言前段时间,知名机构麦可思研究院发布了《2022年中国本科生就业报告》,其中详细列出近五年的本科绿牌专业,其中,信息安全位列第一。网络安全前景对于网络安全的发展与就业前景,想必无需我多言,作为当下应届生收入较高的专业之一,网络安全同样也在转行领域中占据热门位置,主要......
  • 如何设计一个能根据任务优先级来执行的线程池
    不同的线程池会选用不同的阻塞队列作为任务队列,比如FixedThreadPool使用的是LinkedBlockingQueue(有界队列),默认构造器初始的队列长度为Integer.MAX_VALUE,由于队列永远不会被放满,因此FixedThreadPool最多只能创建核心线程数的线程。假如需要实现一个优先级任务线程池的话,那可......
  • linux 安装 Ollama 框架
    概述Ollama是一款旨在简化大语言模型(LLM)本地部署的工具,支持Windows、Linux和MacOS系统。它提供了一个用户友好的环境,让开发者可以轻松地运行和调优如Qwen、Llama等超过1700种的大语言模型。核心优势多平台兼容性:无缝适配主流操作系统。丰富的模型库:内置了大量预训练模......
  • 【信息安全】发布漏洞信息是否违法?如何量刑?
    引言在全球数字化进程加速的今天,信息安全问题成为了国家、企业乃至个人面临的重大挑战。网络漏洞作为信息安全的薄弱环节,一旦被恶意利用,可能导致数据泄露、系统崩溃甚至经济损失。随着安全研究人员和黑客的逐步增加,漏洞信息的披露也成为网络安全领域的一个重要议题。昨天的事情大......