首页 > 其他分享 >使用ollama + AnythingLLM快速且简单的在本地部署llm3

使用ollama + AnythingLLM快速且简单的在本地部署llm3

时间:2024-04-22 23:34:26浏览次数:15  
标签:llm3 ollama 模型 com https model AnythingLLM 下载

使用ollama + AnythingLLM快速且简单的在本地部署llm3

不多说,直接开始

一、安装ollama

ollama官网:https://ollama.com/
下载地址:https://ollama.com/download

打开以后注册并下载即可

image

安装没有什么好说的,找到自己的系统安装即可,因为我的电脑没有搞虚拟机,所以就直接安装Windows的版本了

二、下载模型并运行ollama

安装ollama以后,通过管理员打开powershell

输入ollama,只要出现下面这些,说明安装成功了

image

打开ollama的模型的网页:https://ollama.com/library

image

我们以llm3为例,双击进入

image

常用的命令有

  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

可以看到页面中让执行ollama run llama3即可

一般来说run是用来跑模型的,但是如果本地没有这个模型的话,ollama会自动下载

PS:国内的网络问题不知道有没有解决,下载模型的时候偶尔速度很快,但是很多时候速度很慢以至于提示TLS handshake timeout,这种情况建议重启电脑或者把ollama重启一下(不知道为啥,我同步打开GitHub的时候速度会明显快一些,可能也是错觉)

下载完成以后我们输入ollama list可以查下载了哪些模型

image

这里我们直接输入ollama run llama3,就可以开始对话了

image

三、下载AngthingLLM

AngthingLLM官网:https://useanything.com
下载链接:https://useanything.com/download

同样的选择对应的系统版本即可

image

在使用前,需要启动Ollama服务

执行ollama serve,ollama默认地址为:http://127.0.0.1:11434

然后双击打开AngthingLLM

因为我已经配置过,所以不好截图最开始的配置界面了,不过都能在设置里面找到

首先是LLM Preference,LLM provider选择ollama,URL填写默认地址,后面的模型选择llama3,token填4096

image

Embedding Preferenc同样选择ollama,其余基本一致,max我看默认8192,我也填了8192

image

Vector Database就直接默认的LanceDB即可

image

此时我们新建工作区,名字就随便取,在右边就会有对话界面出现了

image

此时你就有了自己本地的语言模型了

是不是很简单,费时间的地方其实就在下载模型的时候,想用Open WebUI,但是电脑没有搞docker,就用AngthingLLM了,如果实在下不下来,也可以搞离线模型,Windows系统模型默认路径是C:\Users\wbigo.ollama\models,模型库网址:https://modelscope.cn/models

挺全的

标签:llm3,ollama,模型,com,https,model,AnythingLLM,下载
From: https://www.cnblogs.com/jokingremarks/p/18151827

相关文章

  • 使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
    1、ollama到底是个什么玩意一句话来说,Ollama是一个基于Go语言开发的简单易用的本地大模型运行框架。可以将其类比为docker(有类似docker中的一些常规命令list,pull,push,run等等),事实上确实也制定了类似docker的一种模型应用标准,在后边的内容中,你能更加真切体会到这一点。......
  • 更改ollama模型存储路径
    默认情况下,ollama模型的存储目录如下:macOS:~/.ollama/modelsLinux:/usr/share/ollama/.ollama/modelsWindows:C:\Users\<username>\.ollama\models如果需要使用不同的目录,则需设置环境变量OLLAMA_MODELS,把它设置为所选目录。https://github.com/ollama/ollama/blob/ma......
  • 使用ollama本地部署gemma记录
    1.官网https://ollama.com/安装ollama2.先配置一下环境变量不然下载的东西会默认丢在C盘里3.cmd执行ollamarungemma:2b(使用后推荐直接下7b,2b有点不够用 后续解决:打开debug,读一下server.log,自己排错,我这里是GPU的问题,最后把GPU选项关闭就好了......
  • 掌握Ollama框架:一站式教程,从环境搭建到高效开发
    掌握Ollama框架:一站式教程,从环境搭建到高效开发安装ollamamacOSWindows预览版LinuxDockerollama的库和工具ollama-pythonollama-js快速开始运行模型访问模型库自定义模型从GGUF导入模型自定义提示CLI参考创建模型拉取模型删除模型复制模型多行输入多模态模型提示作为......
  • 打造个性化聊天机器人:用Ollama和Open WebUI搭建你的私有ChatGPT!
    一简介Ollama官网:https://github.com/ollama/ollamaOllama是一个开源的人工智能(AI)和机器学习(ML)工具平台,特别设计用于简化大型语言模型(LLM)的部署和使用流程。用户可以通过Ollama在本地环境中便捷地运行各种大型语言模型,比如Llama2和其他开源模型。该工具的主要优势和特......
  • Ubuntu 安装ollama时失败
    Ubuntu安装ollama时:tang@tang-JASPER12:~/Qwen$curlhttps://ollama.ai/install.sh|sh %Total   %Received%Xferd AverageSpeed  Time   Time    Time Current                                Dload Upload......
  • ollama 初体验
    参考https://github.com/ollama/ollamahttps://zhuanlan.zhihu.com/p/689555159https://zhuanlan.zhihu.com/p/687099148https://zhuanlan.zhihu.com/p/685166253https://babyno.top/posts/2024/03/run-a-large-language-model-locally-2/提供RAG示例https://sspai.com/p......
  • 如何在本地使用Ollama运行开源LLMs
    本文将指导您下载并使用Ollama,在您的本地设备上与开源大型语言模型(LLMs)进行交互的强大工具。与像ChatGPT这样的闭源模型不同,Ollama提供透明度和定制性,使其成为开发人员和爱好者的宝贵资源。我们将探索如何下载Ollama并与两个令人兴奋的开源LLM模型进行交互:Meta的基于文本的模型L......
  • Elasticsearch:使用在本地计算机上运行的 LLM 以及 Ollama 和 Langchain 构建 RAG 应用
    无需GPU的隐私保护LLM。在本博客中,我将演示使用不同的工具Ollama构建的RAG应用程序。与本文相关的所有源代码均已发布在github上。请克隆存储库以跟随文章操作。我们可以通过如下的方式来克隆:gitclonehttps://github.com/liu-xiao-guo/ollama_es什么是 Ollam......
  • langchain Chatchat 学习实践(二)——实现对Ollama的支持
    1、采用Langchain的Ollama库,新建get_BaseChatModel方法,按照名称返回ChatOllama或ChatOpenAI实例;2、在model_config.py.example中添加了ollama相关配置,用于设置ollama模型名称和ollama部署发布地址;3、在chat.py,knowledge_base_chat.py,file_chat.py,search_engine_chat.py,ag......