首页 > 其他分享 >ollama——快速上手Llama3部署使用

ollama——快速上手Llama3部署使用

时间:2024-04-26 10:45:30浏览次数:31  
标签:bin llama3 模型 Llama3 usr 上手 ollama

ollama——快速上手Llama3

1. ollama安装

#Linux
curl -fsSL https://ollama.com/install.sh | sh
#vi /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
#配置远程访问
Environment="OLLAMA_HOST=0.0.0.0"
#配置跨域请求
Environment="OLLAMA_ORIGINS=*"
#配置OLLAMA的模型存放路径,防止内存不足,一般的默认路径是/usr/share/ollama/.ollama/models/
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"

[Install]
WantedBy=default.target

##修改完后执行
sudo systemctl daemon-reload
sudo systemctl enable ollama

2. ollama的使用

#使用感觉和docker类似,输出ollama就会有提示
ollama serve	#启动ollama
ollama create	#从模型文件创建模型
ollama show		#显示模型信息
ollama run		#运行模型
ollama pull		#从注册表中拉取模型
ollama push		#将模型推送到注册表
ollama list		#列出模型
ollama cp		#复制模型
ollama rm		#删除模型
ollama help		#获取有关任何命令的帮助信息

在这里插入图片描述

3. ollama的library

类似Docker的Docker Hub,在这里可以查找可以选择的大模型。

在这里插入图片描述

4. Llama3使用示例

  • 这里以llama3-8b为例
#下载模型
ollama pull llama3
#下载成功查看模型
ollama list
#运行模型
ollama run llama3

在这里插入图片描述

  • general api调用

    #input
    {
        "model": "llama3",
        "prompt": "Describe the scene of sunny weather after raining",
        "stream": false
    }
    #output
    

    在这里插入图片描述

  • chat api调用

    #input
    {
        "model": "llama3",
        "prompt": "Describe the scene of sunny weather after raining",
        "stream": false
    }
    #output
    

    在这里插入图片描述

5. 参考

https://ollama.com/
https://github.com/ollama/ollama

标签:bin,llama3,模型,Llama3,usr,上手,ollama
From: https://www.cnblogs.com/hcxss/p/18159484

相关文章

  • 学习笔记447—本地部署 Llama3 – 8B/70B 大模型!最简单的方法: 支持CPU /GPU运行 【3种
    本地部署Llama3–8B/70B大模型!最简单的方法:支持CPU/GPU运行【3种方案】目前在开源大模型领域,Llama3无疑是最强的!这次Meta不仅免费公布了8B和70B两个性能强悍的大模型,400B也即将发布,这是可以和GPT-4对打的存在!今天我们就来介绍3各本地部署方法,简单易懂,非常适合新手!1.G......
  • 使用open webui+ollama部署本地大模型
    使用openwebui+ollama部署本地大模型上次使用了angthingllm+ollama部署了本地大模型,详情见:https://www.cnblogs.com/jokingremarks/p/18151827但是还是觉得可以用兼容性更好的openwebui1.安装docker比较懒,所以还是在Windows系统上安装dockerdocker官网链接:https://www.d......
  • 扎克伯格说,Llama3-8B还是太大了,量化、剪枝、蒸馏准备上!
    扎克伯格说,Llama3-8B还是太大了,不适合放到手机中,有什么办法?量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但是这几个词对于现阶段的大语言模型发展特别重要,它们就是将模型缩小的利器。这篇文章就带大家来认识认识它们,......
  • https://github.com/meta-llama/llama3 文生图
    https://github.com/meta-llama/llama3 Skiptocontent NavigationMenu Product Solutions OpenSource Pricing Searchorjumpto...  SigninSignup  meta-llama/llama3PublicNotificationsFork 1.4k Star ......
  • Ollama是什么,为什么这么好用
     Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。以下是其主要特点和功能概述:1.简化部署:Ollama目标在于简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。2.轻量级与可扩展:作为轻量级框架,Olla......
  • 解决安装 ollama 在 wsl2 中报 WARNING: No NVIDIA/AMD GPU detected. Ollama will ru
    首先要确保wsl2版的cuda环境已经安装[非必须]如果已安装了环境但是nvidia-smi找不到,可能是未加入环境变量,请将它的路径/usr/lib/wsl/lib加入PATHollama在/usr/bin/找不到nvidia-smi位置,所以会有如上警告,所以需要创个链接指向:方法一:sudoln-s$(whichnvid......
  • Ollama实现开源大模型本地化安装部署
     这里有一篇介绍还不错的知乎文章,可以去看下。https://zhuanlan.zhihu.com/p/6923439351、windows安装ollama(https://ollama.com/download)2、选择下载安装大模型3、open-webui:是一个开源的Web界面,用于同各种大语言模型进行交互,并可以同ollama所管理的大语言模型进行快速集成......
  • 使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
    1、ollama到底是个什么玩意一句话来说,Ollama是一个基于Go语言开发的简单易用的本地大模型运行框架。可以将其类比为docker(有类似docker中的一些常规命令list,pull,push,run等等),事实上确实也制定了类似docker的一种模型应用标准,在后边的内容中,你能更加真切体会到这一点。......
  • langchain + ollama 实现本地文档搜索
    fromlangchain.document_loadersimportOnlinePDFLoaderfromlangchain.vectorstoresimportChromafromlangchain.embeddingsimportGPT4AllEmbeddingsfromlangchainimportPromptTemplatefromlangchain.llmsimportOllamafromlangchain.callbacks.managerimp......
  • Ollama
    Ollama简介一个简明易用的本地大模型运行框架,Ollama官网:https://ollama.com/ollama命令ollama有类似docker的命令。下面是一些模型(largelanguagemodels)的操作命令:ollamalist:显示模型列表ollamashow:显示模型的信息ollamapull:拉取模型ollamapush:推送模型ollama......