首页 > 系统相关 >linux 安装 Ollama 框架

linux 安装 Ollama 框架

时间:2025-01-08 14:22:15浏览次数:1  
标签:安装 框架 Ollama 模型 bashrc export linux ollama

概述

Ollama 是一款旨在简化大语言模型(LLM)本地部署的工具,支持 Windows、Linux 和 MacOS 系统。它提供了一个用户友好的环境,让开发者可以轻松地运行和调优如 Qwen、Llama 等超过1700种的大语言模型。

核心优势

  • 多平台兼容性:无缝适配主流操作系统。
  • 丰富的模型库:内置了大量预训练模型,直接从官网下载即可使用。
  • 个性化配置:通过 modelfile 文件调整模型参数,实现对生成内容的精细控制。
  • 自定义模型支持:允许导入第三方 ggml 格式的模型,或转换其他格式的模型至 ggml。
  • 高性能推理:优化了多GPU环境下的并行处理能力,提升推理速度。

Ollama 的设计降低了大语言模型的使用门槛,特别适合希望快速构建 AI 应用或针对特定任务进行模型优化的开发者。

官方资源

快速安装指南

对于 Linux 用户,Ollama 提供了一键安装脚本,使得安装过程变得极为简便。以下是详细的安装步骤:

  1. 执行一键安装

    curl -fsSL https://ollama.com/install.sh | sh
    
  2. 启动 Ollama 服务

    ollama serve
    

如果遇到权限问题(例如提示需要 sudo 权限),建议下载离线安装包以避免权限限制。可以从 GitHub 发布页 获取对应系统的安装包,并按照以下步骤操作:

  1. 下载离线安装包
    访问发布页,选择适用于您系统的版本下载。

  2. 解压文件

    tar -xzvf ./ollama-linux-amd64.tgz
    
  3. 启动 Ollama 服务

    ./bin/ollama serve &
    

为了确保 ollama 命令可以在任何位置被调用,需要将其路径添加到系统的 PATH 环境变量中。这可以通过编辑您的 shell 配置文件(如 .bashrc.zshrc)来完成。

echo 'export PATH=$PATH:/home/ollama/bin' >> ~/.bashrc
echo 'export OLLAMA_KEEP_ALIVE=12h' >> ~/.bashrc
echo 'export OLLAMA_HOST=0.0.0.0:11434' >> ~/.bashrc
echo 'export OLLAMA_MODELS=/data/ollama/models' >> ~/.bashrc
source ~/.bashrc

现在,您可以直接在终端中使用 ollama 命令来管理和运行模型,例如:

ollama run llama3.1:8b

以上步骤将帮助您顺利完成 Ollama 的安装与配置,开始探索大语言模型的世界。

标签:安装,框架,Ollama,模型,bashrc,export,linux,ollama
From: https://www.cnblogs.com/lliuhuan/p/18659620

相关文章

  • [软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全
    qwen2.5coder发布之后,觉得差不多可以实现离线模型辅助编程了,所以尝试在公司内网部署模型,配合vsocde插件continue实现代码提示、聊天功能。目前使用qwen2.5coder的32b模型,体验上和gpt-4o差不多(都稀碎),适用于编写脚本,查一些简单问题,例如flask如何把变量传到前端,准确率还可以,但是补全......
  • 基本linux命令行
    **系统信息**arch显示机器的处理器架构(1)uname-m显示机器的处理器架构(2)uname-r显示正在使用的内核版本dmidecode-q显示硬件系统部件-(SMBIOS/DMI)hdparm-i/dev/hda罗列一个磁盘的架构特性hdparm-tT/dev/sda在磁盘上执行测试性读取操作cat/proc/cpuin......
  • Ollama系列---【如何离线安装ollama?】
    1.环境本文以centos7.9安装ollama为例2.下载ollama安装包官网地址:https://ollama.com/download/linuxGitHub手动安装文档地址:https://github.com/ollama/ollama/blob/main/docs/linux.md安装包下载地址:https://ollama.com/download/ollama-linux-amd64.tgz3.上传到服务器并......
  • linux 清空catalina.out日志 不需要重启tomcat(五种方法)
    今天突然发现图表展示查询条件不能用了,想着可能是日志太多一直没清理导致的,结果一查tomcat的log目录居然已经有1012G,果断删除生成的前几年的日志,发现这些都不大,保留2425年其他都删掉还有956G,仔细一看catalina.out居然有865G,上网查看有没有不关闭tomcat就清空这个文件的方法,删除之......
  • Linux(Centos 7.6)命令详解:mkdir
    1.命令作用如果目录还不存在,则创建目录(CreatetheDIRECTORY,iftheydonotalreadyexist.)2.命令语法Usage:mkdir[OPTION]...DIRECTORY...3.参数详解OPTION:-m,--mode=MODE,创建新目录同时设置权限模式-p,--parents,创建多层目录,如上层目录不存在会自动创建-v,-......
  • 前后端分离的权限管理框架,前端采用 Vue 3 框架,后端采用 .NET 8、ORM 采用 EF 8
    合集-.NET开源项目(37)  收起 阅读目录前言项目介绍项目功能项目技术模块化工程结构微服务案例模块化工程结构属性依赖注入项目特点项目效果项目文档项目地址总结最后前言领导要求做一个小项目,要求独立运行,用以最少的依赖,此时不想集成到主项......
  • ProxyPin开源免费抓包工具,支持Windows、Mac、Android、IOS、Linux 全平台系统
    您可以使用它来拦截、检查和重写HTTP(S)流量,支持Flutter应用抓包,ProxyPin基于Flutter开发,UI美观易用。核心特性手机扫码连接:不用手动配置Wifi代理,包括配置同步。所有终端都可以互相扫码连接转发流量。域名过滤:只拦截您所需要的流量,不拦截其他流量,避免干扰其他应用。搜索:根......
  • ThinkPHP5框架下解决路径配置错误导致模板无法找到的问题
    问题描述:在使用ThinkPHP5开发Web应用程序时,有时会遇到因为路径设置不当而导致试图加载的视图文件不存在的情况。面对这样的报错提示,我们应该怎样排查并修复呢?解决方案:确认项目目录结构:检查项目的物理文件夹组织方式是否与预期一致,特别是application目录下的控制器、模型、视图......
  • 如何修改网站模板框架
    网站模板框架决定了网站的整体外观和布局。当需要更改网站的设计风格或布局时,如何修改模板框架呢?解决方案:备份网站文件:在进行任何修改之前,务必备份网站的所有文件和数据库,以防出现意外情况。选择合适的模板:根据网站的需求选择一个合适的模板。可以使用现有的模板,也可以自定义......
  • 若依框架(ruoyi-master)——13.Nacos,使用服务注册和服务诶只
    若依(Ruoyi)框架中如何使用Nacos?若依框架的微服务版项目启动Nacos下载和启动Nacos服务注册和配置接下来,我们可以查看若依框架微服务版如何使用Nacos?前提JDK>=1.8(推荐1.8版本)Mysql>=5.7.0(推荐5.7版本)\Redis>=3.0Maven>=3.0Node>=12nacos>=2.0.4(ruo......