首页 > 其他分享 >Ollama+MaxKB 部署本地知识库

Ollama+MaxKB 部署本地知识库

时间:2024-08-09 20:28:21浏览次数:12  
标签:8080 知识库 maxkb 本地 MaxKB Ollama

Ollama+MaxKB 部署本地知识库

本文我们介绍另外一种部署本地知识库的方案:

Ollama + MaxKB

相对来说,容易安装且功能较完善,30 分钟内即可上线基于本地大模型的知识库问答系统,并嵌入到第三方业务系统中。

缺点是如果你的电脑配置不高,问题回答响应时间较长。

下图为 MaxKB 的产品架构:

image-20240809111438499

实现原理上,仍然是应用了 RAG 流程:

image-20240809111503437

安装 MaxKB

首先我们通过 Docker 安装 MaxKB

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb

注意这里镜像源是 china mainland,走代理的镜像会下载失败。

安装成功后访问:http://localhost:8080/ 登录,初始账号为:

用户名: admin
密码: MaxKB@123..

标签:8080,知识库,maxkb,本地,MaxKB,Ollama
From: https://blog.csdn.net/2401_84052244/article/details/141057135

相关文章

  • 本地化部署GraphRAG+Ollama,实现基于知识图谱的智能问答
    citingfromhttps://medium.com/@vamshirvk/unlocking-cost-effective-local-model-inference-with-graphrag-and-ollama-d9812cc60466之前写过一篇使用deepseek和智谱AI实现《红楼梦》中人物关系智能问答的随笔但deepseek提供的免费tokens只有500万个,GraphRAG构建图谱的索引和......
  • ollama安装和运行llama3.1 8b
    ollama安装和运行llama3.18bcondacreate-nollamapython=3.11-ycondaactivateollamacurl-fsSLhttps://ollama.com/install.sh|shollamarunsongfy/llama3.1:8b就这么简单就能运行起来了.我们可以在命令行中与他交互.当然我们也可以用接口访问:curlhttp:/......
  • Ollama 与 RAG 一起用于本地使用以与 pdf 聊天
    我正在尝试通过使用RAG在本地计算机上与pdf聊天来构建ollama用法。我遵循了这个GitHub存储库:https://github.com/tonykipkemboi/ollama_pdf_rag/tree/main问题是当我运行代码时,没有错误,但代码将在嵌入时停止并会之后停止。我已附上所有可能的日志以及ollama......
  • VannaAI(带有 Ollama 和 ChromaDB)示例程序在训练模型步骤失败
    我开始测试VannaAI,并且我正在运行一个基于使用Ollama、ChromaDB为Postgres生成SQL的示例程序:fromvanna.ollamaimportOllamafromvanna.chromadbimportChromaDB_VectorStoreclassMyVanna(ChromaDB_VectorStore,Ollama):def__init__(self,confi......
  • 如何建立测试团队的知识库
    后台有同学留言,问了这样一个问题:刚担任测试负责人,团队流程很乱,需求不甚明确,测试工作基本靠员工的熟练程度,项目交付质量堪忧。迭代排期紧张,新招来的同学没人带,也没有文档之类的让他们了解业务,感觉就在恶性循环。他团队管理经验不多,问我有没有什么方法或者建议。他所描述的这......
  • Langchain、Ollama 和 Llama 3 提示和响应
    目前,我正在返回多个响应,或者模型不知道何时结束响应,并且似乎在响应中重复系统提示(?)。我只想得到一个回复​​。我的设置非常简单,所以我想我缺少实现细节,但是我该怎么做才能只返回单个响应?fromlangchain_community.llmsimportOllamallm=Ollama(model="llama3")defget_m......
  • RAG知识库之针对长文档的Raptor索引
          在现有的朴素RAG应用中其只是简单的对文档进行分块后存储的向量库中,然后在使用是根据提问问题从查询向量库中查询相识度较高的文档快作为问题上下文提交到LLM让其根据上下文去回答用户所提问的问题。对于小文本可以直接将整个文档作为上下文或使用上篇文章所提到的......
  • wsl docker里运行ollama并使用nvidia gpu的一些记录
     1、安装wsl2具体过程网上一搜一把,这里就先略过了,只有wsl2能用哈2、wsl里装docker,及相关配置装dockerwget https://download.docker.com/linux/static/stable/aarch64/docker-23.0.6.tgzcd/mydata/tmp/tar -zxvf docker-23.0.6.tgzmvdocker/*/usr/bin/mvdock......
  • SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
    前言上一篇文章介绍了使用SemanticKernel/C#的RAG简易实践,在上篇文章中我使用的是兼容OpenAI格式的在线API,但实际上会有很多本地离线的场景。今天跟大家介绍一下在SemanticKernel/C#中如何使用Ollama中的对话模型与嵌入模型用于本地离线场景。开始实践本文使用的对话模型是gemm......
  • 无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用
    无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用户满意度飙升1.简介MaxKB(MaxKnowledgeBase)是一款基于LLM大语言模型的开源知识库问答系统,飞致云是中国领先的开源软件公司。飞致云旗下开源产品包括1Panel开源面板、JumpServer开源......