首页 > 其他分享 >做LLM推理时,常见的显卡如何选择?

做LLM推理时,常见的显卡如何选择?

时间:2024-04-29 20:11:21浏览次数:22  
标签:A100 模型 CUDA LLM GPU 显卡 推理 RTX

在选择显卡进行大型语言模型推理时,主要要看下面几个指标:

VRAM(视频随机存取存储器):

VRAM 的容量直接影响您能够加载的模型的大小。大型语言模型需要大量的内存来存储权重和进行计算。

至少12 GB VRAM 是推荐的起点,更大的模型可能需要 24 GB 或更多。

CUDA核心数

CUDA核心数越多,表示 GPU 在执行并行运算时的能力越强。

大量的 CUDA核心有助于提高处理大型神经网络的速度。

常见显卡的配置及价位

以下是一些常见 NVIDIA 显卡系列的比较表,主要依据 VRAM 容量和 CUDA 核心数量这两个关键指标。

请注意,这些值是每个系列中典型型号的数据,并不代表每款具体显卡的全部配置。

显卡系列 典型示例 VRAM (GB) CUDA核心数量 价位及定位
GTX 16 GTX 1660 Ti 6 1536 1K左右,没有 Tensor核心,低端游戏和基本计算。
RTX 20 RTX 2080 Ti 11 4352 2~3K,高端游戏和基本AI/ML应用。
RTX 30 RTX 3080 10 8704 3~4K,高性能游戏和专业级AI/ML应用
RTX 40 RTX 4090 24 16384 2W左右,极端性能游戏和顶级AI/ML应用
Tesla A100 Tesla A100 40/80 6912 10W+, 数据中心,高性能计算和深度学习
H100 Hopper H100 80 16896 10W+, 超高性能计算,AI研究和数据分析

上表中 Tesla A100 的 CUDA 核心数小于 RTX 4090,但这并不意味着在大数据运算中更好。

  • A100内存容量和带宽更大;
  • A100 的张量核心(Tensor Cores)和稀疏张量核心(Sparsity-enabled Tensor Cores)专为 AI 和机器学习计算优化,提供了比传统 CUDA 核心更高的效率和吞吐量;
  • A100 可以虚拟化为多达七个独立的 GPU,允许多个任务同时在一个物理 GPU 上高效运行。

A100 在需要大规模并行处理和高速内存的环境中,具有 4090 不可比拟的性能优势。

运行不同尺寸模型对显卡的需求

从模型尺寸来说,不同尺寸的对显卡的概略需求如下:

模型参数 推荐硬件 典型显存需求 使用场景
2B(20亿参数) 笔记本及部分高性能手机 适用于低规格设备,需模型剪枝和量化 优化后的低端设备推理
7B(70亿参数) 消费级GPU,如NVIDIA RTX 2070或2080 8GB至10GB 适用于普通消费者的中等规模模型
70B(700亿参数) 高端GPU如NVIDIA RTX 3090,A6000 24GB及以上 需要高端设备的大规模模型,适合推理优化
400B(4000亿参数) 多GPU或专用AI加速器如NVIDIA DGX系统 多个GPU,每个GPU具有高内存容量 需要数据中心级硬件的极大规模模型

这些硬件需求会随着模型优化技术的进步而变化。例如,通过模型压缩和高效的推理框架,可以大幅降低运行大型模型所需的资源。

标签:A100,模型,CUDA,LLM,GPU,显卡,推理,RTX
From: https://www.cnblogs.com/ghj1976/p/18166576/zuollm-tui-li-shi-chang-jian-de-xian-ka-ru-he-x

相关文章

  • WPF pass event method to viewmodel via Interaction:CallMethodAction,TargetObject
    <Windowx:Class="WpfApp71.MainWindow"xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"xmlns:d="http://schemas.microsoft.......
  • 如何准确的估计llm推理和微调的内存消耗
    Command-R+,Mixtral-8x22b和Llama370b都在最近的几周内发布了,这些模型是巨大的。它们都有超过700亿个参数:Command-R+:104B参数Mixtral-8x22b:具有141B参数的混合专家(MoE)模型Llama370b:70.6B参数你能在电脑上微调和运行这些模型吗?在本文中,我将介绍如何计算这些模型用......
  • LLM学习(6)—— LLM 应用
    以下项目参考自Datawhale不过只有其中一点点功能@Datawhale个人知识库助手项目相对于LLM学习(4),首先更改了embedding的方式,由Gemini换成了zhipu,Gemini的人工zz嵌入模型实在太离谱了,把none选项改成了包含历史对话而不仅仅是一问一答,增加了对于pdf和md文件的的导入然后转换为检......
  • LLM优化:开源星火13B显卡及内存占用优化
    1.背景本qiang~这两天接了一个任务,部署几个开源的模型,并且将本地经过全量微调的模型与开源模型做一个效果对比。部署的开源模型包括:星火13B,Baichuan2-13B,ChatGLM6B等其他两个模型基于transformers架构封装,因此推理服务启动还是十分丝滑,但星火13B是基于Megatron-DeepSpeed框......
  • 大语言模型(LLM)的逻辑推理能力的例子 —— 以ChatGPT3.5为例
    例子:......
  • LLM学习(5)——系统评估与优化
    5.1如何评估LLM应用5.1.1验证评估的一般思路通过不断寻找BadCase并进行针对性优化,将这些案例逐步加入验证集,形成一个具有一定样本数量的验证集。针对这种验证集,逐个进行评估变得不切实际,需要一种自动评估方法来对整体性能进行评估。验证迭代是构建以LLM为核心的应用程序的......
  • vllm 通过不同的chat_template推理部署常见qwen、chatglm、llama3等开源大模型
    vllm版本4.0.0镜像vllmgithub官方镜像gpuv10032ga80080gopenaiapi方式出现的问题通过chat-template聊天模板解决1推理部署qwen系列模型测试我是谁问题:回答内容含有分词符,回答有杂论冗余内容模型文件没有默认聊天模板vllm官方也没有聊天模板找不到不过......
  • 阿里云边缘容器云帮助AI推理应用快速落地
    近日,阿里云技术专家徐若晨在全球分布式云大会上,分享了《边缘容器云助力AI推理高效落地》的主题演讲,分享了阿里云边缘容器云如何助力开发者实现更快速的AI推理应用的迭代和部署。此外,他还分享了边缘AI推理应用在实际业务中的应用案例。 终端算力上移云端算力......
  • anythingllm构建专用知识库(问答增加个人文档)
    anythingllm构建专用知识库(问答增加个人文档)anythingllm的文档说明链接:https://docs.useanything.com/faq/why-is-llm-not-using-docs首先打开ollama的服务然后打开anythingllm,点击要用的工作区上的按钮(上传文件,支持多种文件类型(PDF,TXT,DOC等)点击Clicktouploadordrag......
  • LLM应用实战:当KBQA集成LLM(二)
    1.背景又两周过去了,本qiang~依然奋斗在上周提到的项目KBQA集成LLM,感兴趣的可通过传送门查阅先前的文章《LLM应用实战:当KBQA集成LLM》。本次又有什么更新呢?主要是针对上次提到的缺点进行优化改进。主要包含如下方面:1.数据落库上次文章提到,KBQA服务会将图谱的概念、属性、实体......