首页 > 其他分享 >使用ollama部署本地大模型

使用ollama部署本地大模型

时间:2024-06-04 09:58:04浏览次数:19  
标签:compose ollama 模型 3001 本地 docker anythingllm

安装docker与docker-compose

安装ollama与anythingllm

docker-compose.yml

version: "3"

services:
  ollama:
    image: ollama/ollama
    container_name: ollama
    volumes:
      - .ollama:/root/.ollama
    ports:
      - 11434:11434

  anythingllm:
    image: mintplexlabs/anythingllm
    container_name: anythingllm
    ports:
      - 3001:3001

运行docker-compose up -d启动两个容器

下载与运行大模型

进入ollama容器内
docker exec -it ollama /bin/bash

下载并运行大模型(以下二选一即可)
ollama run llamafamily/llama3-chinese-8b-instruct

llama3 8B中文微调模型(https://github.com/LlamaFamily/Llama-Chinese)

ollama run qwen

通义千问

待fun命令执行完成后,即可在命令行进行问答测试

AnythingLLM配置

打开http://localhost:3001进入AnythingLLM页面,参考下图进行配置

  • 模型服务商: ollama
  • Ollama Base URL: http://ollama:11434
  • Chat Model Selection: 选择前面安装的llama3或者qwen模型
  • Token context window: 默认的4096

    后续操作按照提示一直下一步

知识库上传

进入Chat界面之后,可以配置不同的工作区(可以设置不同工作区使用不同的大模型);
工作区设置中可以上传本地的知识库文件,上传之后的问答可以引用知识库中的内容

标签:compose,ollama,模型,3001,本地,docker,anythingllm
From: https://www.cnblogs.com/xtanuiha/p/18230205

相关文章

  • 学习笔记14:模型保存
    转自:https://www.cnblogs.com/miraclepbc/p/14361926.html保存训练过程中使得测试集上准确率最高的参数importcopybest_model_wts=copy.deepcopy(model.state_dict())best_acc=0train_loss=[]train_acc=[]test_loss=[]test_acc=[]forepochinrange(extend......
  • 本地编码及乱码处理
    https://baike.baidu.com/item/ANSI/10401940?fr=aladdinANSI标准编码代表GB2312编码这种编码的文件(包括文件名和文件内容)传输到另一种ANSI编码的系统之后,可能会产生乱码需要编码处理 <?php$text='鏂板缓鏂囦欢澶';$text='新建文件夹';echo"\n"."原文".$tex......
  • 学习笔记11:预训练模型
    转自:https://www.cnblogs.com/miraclepbc/p/14348536.html什么是预训练网络预训练模型就是之前用较大的数据集训练出来的模型,这个模型通过微调,在另外类似的数据集上训练。一般预训练模型规模比较大,训练起来占用大量的内存资源。微调预训练网络我们采用vgg16作为预训练模型,来实......
  • 学习笔记13:微调模型
    转自:https://www.cnblogs.com/miraclepbc/p/14360807.htmlresnet预训练模型resnet模型与之前笔记中的vgg模型不同,需要我们直接覆盖掉最后的全连接层先看一下resnet模型的结构:我们需要先将所有的参数都设置成requires_grad=False然后再重新定义fc层,并覆盖掉原来的。重新定义的......
  • 探索Semantic Plugins:开启大模型的技能之门
    前言在之前的章节中我们或多或少的已经接触到了SemanticKernel的Plugins,本章我们讲详细介绍如何使用插件。SemanticKernel的一大特点是拥有强大的插件,通过结合自定义/预定义的插件解决智能业务的问题。让传统的代码和智能插件一起工作灵活地接入到应用场景简化传统应用向......
  • 大模型应用框架-LangChain
    LangChain的介绍和入门......
  • vscode如何添加本地python解释器、解析器 Interpreter?(Python: Select Interpreter),并在
    先安装python扩展然后点ctrl+shift+p搜索python:select,选择解析器(或者也可以直接点左下方的) 然后360报毒了,允许通过,然后选择你想要的解释器  然后就好了20230816文章目录在VSCode中添加本地Python解释器 Python解释器简介为什么要在VSCode中设置Python解释器如......
  • 网络I/O模型
    网络I/O模型同步I/O阻塞I/O非阻塞I/OI/O多路复用select函数接口示例poll函数接口示例poll和select的区别epoll原理:示例Reactor单Reactor单进程/线程;单Reactor多线程/进程;多Reactor多进程/线程;异步I/O同步I/O阻塞I/O一个基本的C/S模型如下图所......
  • TensorRT c++部署onnx模型
    在了解一些概念之前一直看不懂上交22年开源的TRTModule.cpp和.hpp,好在交爷写的足够模块化,可以配好环境开箱即用,移植很简单。最近稍微了解了神经网络的一些概念,又看了TensorRT的一些api,遂试着部署一下自己在MNIST手写数字数据集上训练的一个LeNet模型,识别率大概有98.9%,实现用pytor......
  • 【文末附gpt升级秘笈】关于论文“7B?13B?175B?解读大模型的参数的论文
    论文大纲引言简要介绍大模型(深度学习模型)的概念及其在各个领域的应用。阐述参数(Parameters)在大模型中的重要性,以及它们如何影响模型的性能。引出主题:探讨7B、13B、175B等参数规模的大模型。第一部分:大模型的参数规模定义“B”代表的意义(Billion/十亿)。解释7B、13B、175B等......