首页 > 系统相关 >部署Ollama(在LInux上进行部署)

部署Ollama(在LInux上进行部署)

时间:2024-10-13 14:18:31浏览次数:3  
标签:部署 Ollama 模型 Llama LInux root ollama 运行

1.介绍

Ollama:是一款旨在简化大型语言模型本地部署和运行过程的开源软件。

网址:Ollama

Ollama提供了一个轻量级、易于扩展的框架,让开发者能够在本地机器上轻松构建和管理LLMs(大型语言模型)。通过Ollama,开发者可以访问和运行一系列预构建的模型,或者导入和定制自己的模型,无需关注复杂的底层实现细节。

Ollama的主要功能包括快速部署和运行各种大语言模型,如Llama 2、Code Llama等。它还支持从GGUF、PyTorch或Safetensors格式导入自定义模型,并提供了丰富的API和CLI命令行工具,方便开发者进行高级定制和应用开发。

特点:

  • 一站式管理:Ollama将模型权重、配置和数据捆绑到一个包中,定义成Modelfile,从而优化了设置和配置细节,包括GPU使用情况。这种封装方式使得用户无需关注底层实现细节,即可快速部署和运行复杂的大语言模型。

  • 热加载模型文件:支持热加载模型文件,无需重新启动即可切换不同的模型,这不仅提高了灵活性,还显著增强了用户体验。

  • 丰富的模型库:提供多种预构建的模型,如Llama 2、Llama 3、通义千问等,方便用户快速在本地运行大型语言模型。

  • 多平台支持:支持多种操作系统,包括Mac、Windows和Linux,确保了广泛的可用性和灵活性。

  • 无复杂依赖:通过优化推理代码并减少不必要的依赖,Ollama能够在各种硬件上高效运行,包括纯CPU推理和Apple Silicon架构。

  • 资源占用少:Ollama的代码简洁明了,运行时占用资源少,使其能够在本地高效运行,不需要大量的计算资源

2.下载与安装

1.LInux上已经有了源文件

1.在虚拟机/root/resource目录中已经下载好Linux版本所需的ollama-linux-amd64.tgz文件,则执行下面命令开始安装:

tar -C /usr -xzf ollama-linux-amd64.tgz

 2.操作成功之后,可以通过查看版本指令来验证是否安装成功

[root@bogon resource]# ollama -v
Warning: could not connect to a running Ollama instance
Warning: client version is 0.3.9

3.添加开启自启服务

创建服务文件/etc/systemd/system/ollama.service,并写入文件内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

生效服务

sudo systemctl daemon-reload
sudo systemctl enable ollama

启动服务

sudo systemctl start ollama

2.一键安装

curl -fsSL https://ollama.com/install.sh | sh

3.安装大模型(这里使用的是通义千问大模型)

直接去ollama官网中下载:

可以找也可以搜

只需要执行命令就可以了

标签:部署,Ollama,模型,Llama,LInux,root,ollama,运行
From: https://blog.csdn.net/weixin_52514897/article/details/142886485

相关文章

  • linux练习题(二)
    习题练习前预备知识(如下图):##linux练习题(二)习题以及参考答案1、将/etc/passwd拷贝到/home下并更名为test。cp/etc/passwd/home/test2、在/tmp下建立test1到test9父子级目录,mkdir-p/tmp/test1/test2/test3/test4/test5/test6/test7/test8/test9如果说该条命令不符......
  • linux从入门到精通-第一章
    提示:本文下载安装应用默认连接都是windows操作系统。文章目录linux介绍一、操作系统的概述1.操作系统的作用2:常见的操作系统二、初识linux1.linux的诞生2:linux的内核三:虚拟机介绍与安装1:VMwareworkStation虚拟化软件2:VMware上安装linux四:远程连接linux1:图形化和......
  • 【大数据技术基础 | 实验二】Linux基础:常用基本命令和文件操作
    文章目录一、实验目的二、实验要求三、实验环境四、常用基本命令1、验证cd和pwd命令2、验证ls命令3、验证mkdir命令4、验证cp、mv和rm命令五、Linux文件操作1、验证touch命令2、验证cat命令3、验证more命令六、实验心得一、实验目的学会linux常用命令(cd,ls,pwd......
  • 基于微信小程序的校园跑腿小程序springboot项目(源码+lw+部署文档+讲解等)兼容app小程
    课题简介本项目旨在为校园师生打造一个便捷高效的跑腿服务平台,基于微信小程序开发前端界面,以SpringBoot构建强大稳定的后端服务。一、功能概述用户注册与登录支持学生和跑腿员通过微信授权快速注册与登录,确保身份真实性和信息安全。任务发布与接单学生用户可在小......
  • 基于微信小程序的小动物救助领养小程序springboot后端(源码+lw+部署文档+讲解等)兼容a
    课题简介本小程序后端基于SpringBoot构建,为小动物救助领养提供了强大的技术支持。它与微信小程序前端紧密配合,实现了一系列关键功能。首先,在数据管理方面,能够高效地存储和处理小动物的信息,包括种类、年龄、健康状况、照片等,以及救助站的相关信息。通过SpringBoot的......
  • Linux 查看后台任务
    在Linux中,`jobs`和`bg`命令通常用于管理shell会话中的后台任务。下面是对这两个命令的详细解释: ###`jobs`命令 `jobs`命令用来列出当前终端会话中所有的作业(jobs)。这些作业包括前台运行的任务和后台运行的任务。当你在一个shell会话中执行一个命令,并且想让它......
  • 基于SpringBoot+Vue+Uniapp微信小程序的打印室预约系统设计与实现(源码+文档+部署视频)
    文章目录1.前言2.详细视频演示3.论文参考4.项目运行截图5.技术框架5.1后端采用SpringBoot框架5.2前端框架Vue6.选题推荐毕设案例8.系统测试8.1系统测试的目的8.2系统功能测试9.代码参考10.为什么选择我?11.获取源码1.前言......
  • 基于Java+Jsp+Html+MySQL实现的企业仓储管理系统设计与实现(源码+文档+部署视频)
    文章目录1.前言2.详细视频演示3.论文参考4.项目运行截图5.技术框架5.1后端采用SpringBoot框架5.2前端框架Vue6.选题推荐毕设案例8.系统测试8.1系统测试的目的8.2系统功能测试9.代码参考10.为什么选择我?11.获取源码1.前言......
  • 将threejs的官方文档部署到本地,遇到的问题及解决方法
    问题:官方文档浏览速度慢。 1.下载https://threejs.org/官网首页左侧,点击“download”下载  2.得到压缩包:three.js-master.zip解压到本地 3. 部署用VSCode打开解压后的文件夹运行命令:npminstall运行命令:npmrundev  报错:  问了一下AI,得到如何解......
  • 基于Java的百货中心管理系统的设计与实现(源码+文档+部署讲解等)
    文章目录1.前言2.详细视频演示3.程序运行示例图4.文档参考5.技术框架5.1后端采用SpringBoot框架5.2前端框架Vue5.3程序操作流程6.选题推荐7.原创毕设案例8.系统测试8.1系统测试的目的8.2系统功能测试9.代码参考10.为什么选择我?11.获取源码1.前言......