首页 > 其他分享 >LLM 推理 & 服务

LLM 推理 & 服务

时间:2024-08-22 10:16:28浏览次数:10  
标签:服务 PagedAttention token 内存 LLM 序列 vLLM 推理

目录

vLLM

加州大学伯克利分校的研究者开源了一个项目 vLLM,该项目主要用于快速 LLM 推理和服务。

vLLM 的核心是 PagedAttention,这是一种新颖的注意力算法,它将在操作系统的虚拟内存中分页的经典思想引入到 LLM 服务中。

配备了 PagedAttention 的 vLLM 将 LLM 服务状态重新定义:它比 HuggingFace Transformers 提供高达 24 倍的吞吐量,而无需任何模型架构更改。

总结而言,vLLM 具有如下特点:

  • 最先进的服务吞吐量;

  • PagedAttention 可以有效的管理注意力的键和值;

  • 动态批处理请求;

  • 优化好的 CUDA 内核;

  • 与流行的 HuggingFace 模型无缝集成;

  • 高吞吐量服务与各种解码算法,包括并行采样、beam search 等等;

  • 张量并行以支持分布式推理;

  • 流输出;

  • 兼容 OpenAI 的 API 服务。

vLLM 还可以无缝支持许多 Huggingface 模型,包括以下架构:

  • GPT-2 (gpt2、gpt2-xl 等);
  • GPTNeoX (EleutherAI/gpt-neox-20b、databricks/dolly-v2-12b、stabilityai/stablelm-tuned-alpha-7b 等);
  • LLaMA (lmsys/vicuna-13b-v1.3、young-geng/koala、openlm-research/open_llama_13b 等)
  • OPT (facebook/opt-66b、facebook/opt-iml-max-30b 等)。

PagedAttention:解决内存瓶颈

在自回归解码过程中,所有输入到 LLM 的 token 会产生注意力键和值的张量,这些张量保存在 GPU 内存中以生成下一个 token。这些缓存键和值的张量通常被称为 KV 缓存,其具有:

  • 内存占用大:在 LLaMA-13B 中,缓存单个序列最多需要 1.7GB 内存;
  • 动态且不可预测:KV 缓存的大小取决于序列长度,这是高度可变和不可预测的。因此,这对有效地管理 KV 缓存挑战较大。该研究发现,由于碎片化和过度保留,现有系统浪费了 60% - 80% 的内存。

为了解决这个问题,该研究引入了 PagedAttention,这是一种受操作系统中虚拟内存和分页经典思想启发的注意力算法。

与传统的注意力算法不同,PagedAttention 允许在非连续的内存空间中存储连续的键和值。

具体来说,PagedAttention 将每个序列的 KV 缓存划分为块,每个块包含固定数量 token 的键和值

在注意力计算期间,PagedAttention 内核可以有效地识别和获取这些块。

因为块在内存中不需要连续,因而可以用一种更加灵活的方式管理键和值,序列的连续逻辑块通过块表映射到非连续物理块中。物理块在生成新 token 时按需分配。

生成前: 输入序列 "Alan Turing is a computer scientist"

image-20240822094343133

在 PagedAttention 中,内存浪费只会发生在序列的最后一个块中。这使得在实践中可以实现接近最佳的内存使用,仅浪费不到 4 %。这种内存效率的提升被证明非常有用,允许系统将更多序列进行批处理,提高 GPU 使用率,显著提升吞吐量。

PagedAttention 还有另一个关键优势 —— 高效的内存共享。例如在并行采样中,多个输出序列是由同一个提示(prompt)生成的。在这种情况下,提示的计算和内存可以在输出序列中共享。

并行采样示例

image-20240822094717698

PagedAttention 自然地通过其块表来启动内存共享。

与进程共享物理页面的方式类似,PagedAttention 中的不同序列可以通过将它们的逻辑块映射到同一个物理块的方式来共享块

  1. 共享Prompt:将逻辑块映射到相同的物理块

    image-20240822095009000

  2. 序列A生成第一个token,物理块的引用技术

    image-20240822095146985

  3. 由于序列A生成了新的token,也需要同步更新存储到物理块中,这个时候会对物理块进行写入,但此时物理块的共享的,会发生写时复制,同时物理块的引用计数-1

    image-20240822095313802

  4. 序列B生成新的token,这是物理块的引用计数为1,不需要再次复制,直接在原物理块写入新生成的token

    image-20240822095533806

  5. 序列A和序列B生成第二个token,可以看到这时两个序列的第一个逻辑块还是共享的

    image-20240822095727891

  6. 序列A和序列B生成第三个token,当物理块写满后,会寻找新的空闲的物理块写入

    image-20240822095912323

  7. 序列A和序列B生成第四个token

    image-20240822095958061

PageAttention 的内存共享大大减少了复杂采样算法的内存开销,例如并行采样和集束搜索的内存使用量降低了 55%。这可以转化为高达 2.2 倍的吞吐量提升。这种采样方法也在 LLM 服务中变得实用起来。

PageAttention 成为了 vLLM 背后的核心技术。vLLM 是 LLM 推理和服务引擎,为各种具有高性能和易用界面的模型提供支持。

vLLM 的安装与使用

pip install vllm

vLLM 可以用于离线推理和在线服务。在使用 vLLM 进行离线推理任务时,你需要导入 vLLM 并在 Python 脚本中使用 LLM 类。

from vllm import LLM

prompts = ["Hello, my name is", "The capital of France is"]  # Sample prompts.
llm = LLM (model="lmsys/vicuna-7b-v1.3")  # Create an LLM.
outputs = llm.generate (prompts)  # Generate texts from the prompts.

在使用 vLLM 进行在线服务时,你可以通过以下命令启动一个兼容 OpenAI API 的服务器。

python -m vllm.entrypoints.openai.api_server --model lmsys/vicuna-7b-v1.3

还可以利用与 OpenAI API 相同的格式来查询服务器

curl http://localhost:8000/v1/completions \
  -H "Content-Type: application/json" \
  -d '{
        "model": "lmsys/vicuna-7b-v1.3",
        "prompt": "San Francisco is a",
        "max_tokens": 7,
        "temperature": 0
      }'

标签:服务,PagedAttention,token,内存,LLM,序列,vLLM,推理
From: https://www.cnblogs.com/mudou/p/18373214

相关文章

  • 【精品毕设推荐】基于SSM+jsp的社区管理与服务系统设计与实现
    点击下载原文及代码,可辅助在本地配置运行摘要本社区管理与服务系统设计目标是实现社区信息化管理,提高效率,为广大社区用户提供更优质的服务。本文重点阐述了社区管理与服务系统的开发过程,以实际运用为开发背景,基于B/S结构,运用了Java技术和MYSQL数据库进行开发设计,充分保证......
  • Eureka中的多实例配置:如何处理微服务实例动态扩展与缩减
    Eureka中的多实例配置:如何处理微服务实例动态扩展与缩减1.引言在微服务架构中,服务的动态扩展与缩减是确保系统弹性和高可用性的关键因素。Eureka,作为一个服务注册和发现的组件,扮演着至关重要的角色。它由Netflix开源,广泛应用于SpringCloud生态系统,用于管理微服务实例的......
  • springboot+vue葛根庙镇乡村服务小程序【程序+论文+开题】-计算机毕业设计(1)
    系统程序文件列表开题报告内容研究背景随着数字乡村战略的深入实施,农村地区正逐步迈向信息化、智能化的发展道路。葛根庙镇,作为典型的乡村地区,其经济、社会、文化的全面发展离不开信息技术的有力支撑。然而,当前乡村服务信息散乱、获取渠道不畅、农牧技术推广效率低等问题日......
  • 基于微信小程序的宠物服务中心
    目录前言 一、技术栈二、系统功能介绍三、核心代码1、登录模块 2、文件上传模块3、代码封装前言疫情爆发以来,越来越多的用户借助于移动手机、电脑完成生活中的事务,许多的传统行业也更加重视与互联网的结合。本论文探讨利用不断发展和进步的网络技术,实现对个人信......
  • 服务器主机wordpress多网站启用redis缓存数据“混乱”解决办法
    近两天在搞网站数据迁移搬家的事情,是将A网站做为B网站的一个子目录,这样就牵涉到一个服务器两个网站的问题,因为这两个wordpress网站都使用了redis缓存,但在建站之初并没有设定不同的数据表前缀,后期修改我也不懂,直接导致了因为redis缓存两个网站数据“混乱”的问题。但好在网络......
  • 微服务注册中心
    目录一、微服务的注册中心1、注册中心的主要作用(1)服务发现(2)服务配置(3)服务健康检测2、 常见的注册中心二、nacos简介1、nacos实战入门(1)搭建nacos环境(2)将商品/订单等微服务注册到nacos三、服务调用Ribbon入门1、Ribbon概述(1)什么是Ribbon(2)Ribbon的主要作用2、基于......
  • 探索Kubernetes:Java微服务的8步深度指南
    ......
  • 云渲染服务大揭秘:为何它值得成为你的渲染新选择
    云渲染是一种基于云计算的服务,它利用大量高性能计算机组成的集群来渲染高质量的图像和动画。这种服务能够显著加快3D动画或视觉效果项目的渲染速度,将原本可能需要数天的渲染任务缩短至数小时。云渲染的优势本文将探讨使用云渲染的好处,并与传统的单机渲染方法进行比较,主要从速度......
  • AMD E1-1200可以用作nas服务器吗
    AMDE1-1200处理器在技术上可以用作NAS(网络附加存储)服务器的CPU,但其性能和适用场景需要仔细考虑。适用性评估性能特点:AMDE1-1200是一款低功耗的APU(加速处理单元),集成了CPU和GPU功能。它的主频较低,适合轻度办公和日常使用,如上网、写作、看视频等。在处理NAS的基本任务,如文......
  • 全球创新药商业化服务平台市场展望:2030年预计达到113660百万美元
    随着全球医药行业的快速发展和创新药物研发的不断涌现,创新药商业化服务平台行业作为支持新药上市和商业化的关键服务领域,其市场前景受到业界广泛关注。据恒州恒思(YHresearch)团队研究的数据显示,2023年全球创新药商业化服务平台市场规模已达到33210百万美元,并预计在未来六年内,该......