首页 > 其他分享 >Ollama

Ollama

时间:2024-04-23 15:24:28浏览次数:19  
标签:open -- Ollama 模型 webui ollama 11434

Ollama

简介

一个简明易用的本地大模型运行框架,Ollama官网:https://ollama.com/

ollama命令

ollama有类似docker的命令。下面是一些模型(large language models)的操作命令:

  • ollama list:显示模型列表
  • ollama show:显示模型的信息
  • ollama pull:拉取模型
  • ollama push:推送模型
  • ollama cp:拷贝一个模型
  • ollama rm:删除一个模型
  • ollama run:运行一个模型

ollama安装

docker run -d  -p 11434:11434 --name ollama ollama/ollama 

web-ui安装

docker run -p 3000:3000 -e DEFAULT_MODEL=llama3:latest -e OLLAMA_HOST=http://IP地址:11434 ghcr.io/ivanfioravanti/chatbot-ollama:main

如果机器允许可以部署下面open-webui,具有最接近 ChatGPT 的界面和最丰富的功能特性。

https://github.com/open-webui/open-webui

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=10.74.25.168:11434 --name open-webui --restart always [ghcr.io/open-webui/open-webui:main](http://ghcr.io/open-webui/open-webui:main)

rest-api使用

  • Generate a response
curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt":"Why is the sky blue?"
}'

  • Chat with a model
curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

标签:open,--,Ollama,模型,webui,ollama,11434
From: https://www.cnblogs.com/caohuajin/p/18152932

相关文章

  • 使用ollama + AnythingLLM快速且简单的在本地部署llm3
    使用ollama+AnythingLLM快速且简单的在本地部署llm3不多说,直接开始一、安装ollamaollama官网:https://ollama.com/下载地址:https://ollama.com/download打开以后注册并下载即可安装没有什么好说的,找到自己的系统安装即可,因为我的电脑没有搞虚拟机,所以就直接安装Windows的......
  • 使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
    1、ollama到底是个什么玩意一句话来说,Ollama是一个基于Go语言开发的简单易用的本地大模型运行框架。可以将其类比为docker(有类似docker中的一些常规命令list,pull,push,run等等),事实上确实也制定了类似docker的一种模型应用标准,在后边的内容中,你能更加真切体会到这一点。......
  • 更改ollama模型存储路径
    默认情况下,ollama模型的存储目录如下:macOS:~/.ollama/modelsLinux:/usr/share/ollama/.ollama/modelsWindows:C:\Users\<username>\.ollama\models如果需要使用不同的目录,则需设置环境变量OLLAMA_MODELS,把它设置为所选目录。https://github.com/ollama/ollama/blob/ma......
  • 使用ollama本地部署gemma记录
    1.官网https://ollama.com/安装ollama2.先配置一下环境变量不然下载的东西会默认丢在C盘里3.cmd执行ollamarungemma:2b(使用后推荐直接下7b,2b有点不够用 后续解决:打开debug,读一下server.log,自己排错,我这里是GPU的问题,最后把GPU选项关闭就好了......
  • 掌握Ollama框架:一站式教程,从环境搭建到高效开发
    掌握Ollama框架:一站式教程,从环境搭建到高效开发安装ollamamacOSWindows预览版LinuxDockerollama的库和工具ollama-pythonollama-js快速开始运行模型访问模型库自定义模型从GGUF导入模型自定义提示CLI参考创建模型拉取模型删除模型复制模型多行输入多模态模型提示作为......
  • 打造个性化聊天机器人:用Ollama和Open WebUI搭建你的私有ChatGPT!
    一简介Ollama官网:https://github.com/ollama/ollamaOllama是一个开源的人工智能(AI)和机器学习(ML)工具平台,特别设计用于简化大型语言模型(LLM)的部署和使用流程。用户可以通过Ollama在本地环境中便捷地运行各种大型语言模型,比如Llama2和其他开源模型。该工具的主要优势和特......
  • Ubuntu 安装ollama时失败
    Ubuntu安装ollama时:tang@tang-JASPER12:~/Qwen$curlhttps://ollama.ai/install.sh|sh %Total   %Received%Xferd AverageSpeed  Time   Time    Time Current                                Dload Upload......
  • ollama 初体验
    参考https://github.com/ollama/ollamahttps://zhuanlan.zhihu.com/p/689555159https://zhuanlan.zhihu.com/p/687099148https://zhuanlan.zhihu.com/p/685166253https://babyno.top/posts/2024/03/run-a-large-language-model-locally-2/提供RAG示例https://sspai.com/p......
  • 如何在本地使用Ollama运行开源LLMs
    本文将指导您下载并使用Ollama,在您的本地设备上与开源大型语言模型(LLMs)进行交互的强大工具。与像ChatGPT这样的闭源模型不同,Ollama提供透明度和定制性,使其成为开发人员和爱好者的宝贵资源。我们将探索如何下载Ollama并与两个令人兴奋的开源LLM模型进行交互:Meta的基于文本的模型L......
  • Elasticsearch:使用在本地计算机上运行的 LLM 以及 Ollama 和 Langchain 构建 RAG 应用
    无需GPU的隐私保护LLM。在本博客中,我将演示使用不同的工具Ollama构建的RAG应用程序。与本文相关的所有源代码均已发布在github上。请克隆存储库以跟随文章操作。我们可以通过如下的方式来克隆:gitclonehttps://github.com/liu-xiao-guo/ollama_es什么是 Ollam......