首页 > 其他分享 >[大模型]本地离线运行openwebui+ollama容器化部署

[大模型]本地离线运行openwebui+ollama容器化部署

时间:2025-01-10 23:28:27浏览次数:3  
标签:openwebui open 模型 离线 webui 镜像 ollama

本地离线运行Openweb-ui ollama容器化部署

  • 说明
  • 安装
    • internet操作
    • 内网操作
  • 问题
    • 线程启动错误
    • 最终命令
  • 总结

说明

最近公司有一个在内网部署一个离线大模型的需求,网络是离线状态,服务器有A100GPU,一开始是想折腾开源chatGML4大模型,因为使用过gml3,所以想着部署gml4应该不难。于是把模型和程序下载好,把模型导入到内网…发现不能使用网页版运行,只能使用客户端运行,用自带网页需要依赖gradio组件,该组件又需要联网…好吧,如果您知道怎么离线运行,请视我无知…于是查询,更换了一种更便捷的方案部署。Open-webui+ollama的方案,Open-webui是网页界面服务,ollama是大模型运行框架,支持多种大模型,只需要选择切换就能切换不同模型运行了。开整!

安装

internet操作

这里使用docker镜像容器的方式安装,简化部署和运行。
1.拉取镜像,这里虽然可以分别拉取Open-webui和ollama镜像,但是我仍然推荐你拉取一个镜像就好了。

docker pull ghcr.io/open-webui/open-webui:ollama

拉取完这个镜像,run起来就算部署完了。这个镜像是包含两个组件,并且是openwebui官网提供说明的下载地址。可能会有点慢,但是实测是可以拉取下来的。
2.run起镜像来。

docker run -d -p 3000:8080 --gpus=all -v /raid/Test/ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart

标签:openwebui,open,模型,离线,webui,镜像,ollama
From: https://blog.csdn.net/myhappyandy/article/details/145059383

相关文章

  • 离线服务器迁移安装docker镜像
    场景服务器需要使用容器,但是服务器是离线状态,或者无法直接拉取docker镜像,这时候就需要本篇文章了步骤步骤1:将镜像导出为tar文件首先,在在线服务器上将镜像导出为一个.tar文件。你可以使用dockersave命令来将镜像导出:dockersave-o/path/to/your-image.taryour-im......
  • DataGrip的数据库驱动的离线安装
    文章目录概要离线安装数据库驱动本地云桌面注意概要在某些工作环境中,由于网络访问受限,可能无法自动下载所需的数据库驱动。离线安装数据库驱动本地本地的DataGrip打开File->DataSources:云桌面云桌面的DataGrip打开File->DataSources:注意请确保......
  • [大模型]体验ollama
    ollama/README.mdatmain·ollama/ollama·GitHub    Olama是一个旨在简化大型语言模型本地部署和运行过程的工具。它提供了一个轻量级、易于扩展的框架,让开发者能够在本地机器上轻松构建和管理LLMS。通过Olama,开发者可以访问和运行一系列预构建的模型,并与其他开......
  • Window上使用Ollama和MaxKB部署本地AI
    前导Ollama是一个本地部署大语言模型并运行的开源项目MaxKB是一个用于管理本地大语言模型且能前端显示的开源项目需要使用到Docker一:下载OllamaOllama官网:https://ollama.com/cmd下输入ollama验证是否部署成功二:在ollama网站上搜索想部署的模型并部署这里以通义千问(qwen......
  • Linux安装Ollama并启用服务教程
    Ollama官网https://ollama.com/download/linuxInstallwithonecommand:curl-fsSLhttps://ollama.com/install.sh|sh使用systemd运行Ollama服务查看ollama所在目录whereisollama#ollama:/usr/local/bin/ollama/usr/local/lib/ollama启动Ollama服......
  • 使用API方式远程调用ollama模型
    在有GPU的环境启动一个ollama大模型,非常简单:注意,ollama启动时默认监听在127.0.0.1:11434上,可以通过配置OLLAMA_HOST环境变量修改点击查看代码exportOLLAMA_HOST="0.0.0.0:11434"ollamaserve&ollamarunqwen2.5:7b-instruct然后就可以在远端访问:点击查看代......
  • 高PF低THD 离线CV控制器CRE6636
    CRE6636是一款具有高功率因数、低THD和高恒压精度的反激式控制器。通过原边即可完成控制的单级输出。CV系统设计方案,不需要二次侧反馈组件和光耦以及TL431,CRE6636在恒定的实时控制方案下即可实现高功率因数。准谐振(QR)模式和频率箝位,提高系统效率。采用先进的启动技术,满......
  • 写一个支持折叠、有缩进、代码高亮、离线的,方便部署的、易用的、优雅的json格式化查看
    缘由网上的在线json格式化有很多,但我是个有追求的人。在线的很难同时支持折叠、有缩进线、代码高亮、离线的,方便部署的、易用的、不请求后端(为了安全)的json格式化工具。去Github上找项目,华而不实的东西占半个屏幕,格式化json要点好几下,一个json格式化工具npm安装之后几百个文件。......
  • 如何在 LobeChat 中使用 Ollama
    Ollama是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括Llama2,Mistral等。现在,LobeChat已经支持与Ollama的集成,这意味着你可以在LobeChat中轻松使用Ollama提供的语言模型来增强你的应用。本文档将指导你如何在LobeChat中使用Ollama:在macOS下......
  • Zabbix安装,配置模板监控主机(在线安装和离线安装)
    安装环境组件版本LinuxRockyLinux8ZabbixZabbix6.0MySql8.0.30(根据Zabbix6搭建时的经验,MySql版本太低的话会不兼容Zabbix,但当时的报错找不到了,所以未能在此展示)IP监控192.168.88.1&&被监控192.168.88.2安装步骤#离线安装https://repo.zabbix.com/zabbix/7.0/rocky/......