首页 > 其他分享 >本地快速私有化部署和运行大语言模型

本地快速私有化部署和运行大语言模型

时间:2024-07-24 17:58:40浏览次数:17  
标签:模型 私有化 学习 hayden GB 本地 model ollama

ollama 是一个快速部署和运行大语言模型的开源工具,https://ollama.com/。通过它可以在终端与大语言模型交互,而且安装非常的简单,支持非常多的模型,并且可以随意切换模型, 支持模型地址:https://ollama.com/library
如果你想使用LLM模型但是又不想暴露你的私人数据到公网,不放试一试这个方法。

以下是在 WSL 中安装它的过程

执行安装命令

curl -fsSL https://ollama.com/install.sh | sh

这样就安装好了。

使用

使用 命令 ollama -h 看看有哪些参数

(base) hayden@hayden ~$ ollama -h``Large language model runner``   ``Usage:`  `ollama [flags]`  `ollama [command]``   ``Available Commands:`  `serve       Start ollama`  `create      Create a model from a Modelfile`  `show        Show information for a model`  `run         Run a model`  `pull        Pull a model from a registry`  `push        Push a model to a registry`  `list        List models`  `cp          Copy a model`  `rm          Remove a model`  `help        Help about any command``   ``Flags:`  `-h, --help      help for ollama`  `-v, --version   Show version information``   ``Use "ollama [command] --help" for more information about a command.

在命令帮助信息中可以看到可以使用 serve 启动它,

接着我们来启动它:

(base) hayden@hayden ~$ ollama serve                                                                  127 ↵``Couldn't find '/home/hayden/.ollama/id_ed25519'. Generating new private key.

然后打开另一个窗口, 接着 从 https://ollama.com/library 中选一个模型 拉到本地跑,以 llama2 为例

(base) hayden@hayden ~$ ollama run llama2``pulling manifest``pulling 8934d96d3f08... 100% ▕██████████████████████████████████████████████▏ 3.8 GB``pulling 8c17c2ebb0ea... 100% ▕██████████████████████████████████████████████▏ 7.0 KB``pulling 7c23fb36d801... 100% ▕██████████████████████████████████████████████▏ 4.8 KB``pulling 2e0493f67d0c... 100% ▕██████████████████████████████████████████████▏   59 B``pulling fa304d675061... 100% ▕██████████████████████████████████████████████▏   91 B``pulling 42ba7f8a01dd... 100% ▕██████████████████████████████████████████████▏  557 B``verifying sha256 digest``writing manifest``removing any unused layers``success``>>> Send a message (/? for help)

这样 llama2 模型就跑起来了,现在就可以在本地与 llama2 交互了。

这里我问了一句 what is you name 模型对问题做出了回答。我们也可以在写代码的时候让它帮助我们写一段代码。

>>> what is you name``I'm just an AI, I don't have a personal name. My purpose is to assist and provide helpful responses to``users like you, so please feel free to call me by any name you like!``   ``>>> Send a message (/? for help)

接着可以用 list 命令看看本地安装了哪些模型

(base) hayden@hayden ~$ ollama list``NAME            ID              SIZE    MODIFIED``llama2:latest   78e26419b446    3.8 GB  About a minute ag

我这里显示只安装了一个 llama2 模型,模型的大小是3.8GB。
需要注意 github 上面有介绍运行不同大小参数的模型对内存的要求不一样:
Note: You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.

在选择模型的时候需要考虑一下你本地运行的机器的内存是否满足运行这个模型的要求,运行 7B 的模型需要至少 8 GB的内存, 运行 13B 的模型至少需要 16 GB的内存,运行 33B 的模型至少需要 32 GB 的内存。

最后如果不想继续使用某个模型,可以使用 rm 删掉以节省磁盘空间

(base) hayden@hayden ~$ ollama rm llama2

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
在这里插入图片描述

篇幅有限,部分资料如下:

标签:模型,私有化,学习,hayden,GB,本地,model,ollama
From: https://blog.csdn.net/2401_85375151/article/details/140669602

相关文章

  • 有手就行,轻松本地部署 Llama、Qwen 大模型,无需 GPU
    用CPU也能部署私有化大模型?对,没错,只要你的电脑有个8G内存,你就可以轻松部署Llama、Gemma、Qwen等多种开源大模型。非技术人员,安装Docker、Docker-compose很费劲?不用,这些都不需要安装,就一个要求:有手就行~今天主要为大家分享保姆级教程:如何利用普通个人电脑,本地私有......
  • Java内存模型全解析:解决共享变量可见性与指令重排难题
    本期说一下Java内存模型(JavaMemoryModel,JMM)及共享变量可见性问题。“以下内容出自本人整理的面试秘籍。点击此处,无套路免费获取面试秘籍JMM是什么?答:Java内存模型(JavaMemoryModel,JMM)抽象了线程和主内存之间的关系就比如说线程之间的共享变量必须存储在主内存......
  • GPT-4o Mini 来袭:开发者如何驾驭新一代AI模型
    前言随着人工智能技术的飞速发展,自然语言处理(NLP)领域迎来了新的突破。GPT-4oMini,作为最新一代的预训练语言模型,不仅在模型大小上进行了优化,同时在语言理解和生成能力上实现了质的飞跃。本文旨在深入探讨GPT-4oMini的技术特点、应用场景以及开发者如何有效利用这一模型,以推动......
  • Java 内存模型
    Author:ACatSmilingSince:2024-07-24概念Java内存模型:JavaMemoryModel,简称JMM,是Java语言中定义的一组规则和规范,用于解决多线程环境下的内存可见性和有序性问题。JMM确定了线程之间如何通过内存进行交互,并规定了变量的读取和写入操作的行为。JMM能干吗?通过JMM来......
  • pyTorch模型调优NPU
    性能分析工具pyTorchProfiling CANNProfiling看taskduration调优手段1:使用亲和的数据类型用AMP训练  AICore不支持torch.long.Tensor类型,会自动切换AICPU,影响训练。调优手段2:优化调度耗时(融合tensor) 融合算子 昇腾要求输入tensor连续,所以进行非连续内存转......
  • 1.2.3_1 OSI参考模型&TCP/IP模型
    一、术语二、常见网络设备的功能层次    对于OSI模型,主机实现了第17层的全部,集线器实现了第1层,交换机实现了第12层,路由器实现了第1~3层。1、物理层    物理层的任务是实现相邻节点之间比特(0或1)的传输。需要定义电路接口的参数(如:形状、尺寸、引脚数等)。需要......
  • 基于RFM的航空公司客户价值分析模型
    一、背景面对激烈的市场竞争,各个航空公司都推出了更优惠的营销方式来吸引更多的客户,国内某航空公司面临着客户流失、竞争力下降和航空资源未充分利用等经营危机。通过建立合理的客户价值评估模型,对客户进行分群,分析比较不同客户群的客户价值,并制定相应的营销策略,对不同的客户群提......
  • Android MVP模型的学习与使用
    一、MVP(Model-View-Presenter)概叙MVP(Model-View-Presenter)是一种用于Android应用程序开发的架构模式,旨在将应用程序的不同部分分离,以提高代码的可维护性和可测试性。MVP模型包含三个主要组成部分:Model、View和Presenter。Model(模型):​ Model负责处理应用程序的数据和业务逻......
  • 玩转大模型之三(FastGPT+OneAPI本地部署)
    一、服务器服务器:一台Linux16核32GIP:10.33.19.16基础环境:Docker、Docker-Compose二、FastGPT安装首先下载docker-compose.yml和config.json两个文件mkdirfastgptcdfastgptcurl-Ohttps://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/......
  • 大模型应用开发——问答系统回答准确性评估的三类方法
    在开发了基于文档的问答系统之后,需要评估系统对问题回答的准确性,将系统的回答与正确答案进行比对并给出评分。我们实践了以下三类方法,最终对比发现,在评估系统回答的准确性时,用大模型来评估最有效。本文旨在给出大模型的prompt供参考,可以根据自己的需求调整。另两类方法仅作简......