首页 > 其他分享 >onnxruntime-gpu 进行推理,限制GPU显存大小

onnxruntime-gpu 进行推理,限制GPU显存大小

时间:2025-01-16 15:29:50浏览次数:3  
标签:显存 1024 providers onnxruntime GPU gpu options

1. 显存问题


使用 onnxruntime-gpu 进行推理,运行时间久了,显存被拉爆

2. C++/Python 配置


运行时,配置 provder , gpu_mem_limit 参数来进行限制,比如2G显存

2147483648
2 * 1024 * 1024 * 1024


Python

providers = [
            (
                "TensorrtExecutionProvider",
                {
                    "device_id": 0,
                    "trt_max_workspace_size": 2147483648,
                    "trt_fp16_enable": True,
                },
            ),
            (
                "CUDAExecutionProvider",
                {
                    "device_id": 0,
                    "arena_extend_strategy": "kNextPowerOfTwo",
                    "gpu_mem_limit": 2 * 1024 * 1024 * 1024,
                    "cudnn_conv_algo_search": "EXHAUSTIVE",
                    "do_copy_in_default_stream": True,
                },
            ),
        ]

如运行时,使用 cuda 进行推理

self.session = onnxruntime.InferenceSession(
            path_or_bytes=model_file,
            providers=[
                (
                    "CUDAExecutionProvider",
                    {
                        "device_id": 0,
                        "arena_extend_strategy": "kNextPowerOfTwo",
                        "gpu_mem_limit": 2 * 1024 * 1024 * 1024,
                        "cudnn_conv_algo_search": "EXHAUSTIVE",
                        "do_copy_in_default_stream": True,
                    },
                )
            ],
        )


C++

OrtSessionOptions* session_options = /* ... */;

OrtCUDAProviderOptions options;
options.device_id = 0;
options.arena_extend_strategy = 0;
options.gpu_mem_limit = 2 * 1024 * 1024 * 1024;
options.cudnn_conv_algo_search = OrtCudnnConvAlgoSearchExhaustive;
options.do_copy_in_default_stream = 1;

SessionOptionsAppendExecutionProvider_CUDA(session_options, &options);


3. 参考
(1)https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html

(2)https://onnxruntime.ai/docs/execution-providers/TensorRT-ExecutionProvider.html

标签:显存,1024,providers,onnxruntime,GPU,gpu,options
From: https://blog.csdn.net/yangyin007/article/details/145184455

相关文章

  • Wgpu图文详解(05)纹理与绑定组
    前言什么是纹理?纹理是图形渲染中用于增强几何图形视觉效果的一种资源。它是一个二维或三维的数据数组,通常包含颜色信息,但也可以包含其他类型的数据,如法线、高度、环境光遮蔽等。纹理的主要目的是为几何图形的表面提供详细的视觉效果,使其看起来更加真实和复杂。而我们常见的图片......
  • GPU选型指南
    TIP:星海算力平台支持多种高性能GPU,以满足不同用户的计算需求。我们深知GPU选择对于优化性能和降低成本的重要性。本文档将指导您根据应用场景和个性化需求,精准选择最适合的GPU型号。一、GPU选型基础在选择GPU时,需要考虑以下几个因素:模型大小:大模型需要更高的GPU算力和显存......
  • parallel programming in CUDA C(GPU并行程序实现数组求和 & Julia set)
    前言我们这节会学习到:Ⅰ.CUDA在实现并行性时采用的一种重要方式Ⅱ.用CUDAC编写第一段并行代码一、Summingvector#defineN10voidadd(int*a,int*b,int*c){inttid=0;//这是第0个CPU,因此索引从0开始while(tid<N){c[tid]=a[tid]+b[tid];......
  • 低显存也能玩?可本地配置的AI生图工具安装指南(非常简单)
    这个文章其实写的有点晚了,毕竟2个工具都已经出现了很久。不过鉴于大部分人其实接触AI生图都两眼一黑的,还是写写吧。在SDwebui出现的时候我就已经半推半就的开始装了:为什么说半推半就呢?一个是因为我个人是个很懒的人,当时的webui安装步骤看到开头就开始头大了,全是编程的东西......
  • windows下安装yolov11的GPU版本
    在CSDN下搜索了一圈,给yolov11配置环境,已经有很多博主写了详细的文章。刚好我自己的笔记本电脑需要安装yolov11,把配置过程记录下。1、配置思路使用miniconda作为包管理工具,先单独安装pytorch、torchvision,再安装yolov11,最后通过condainstall安装cudatoolkit。2、安装流程......
  • nvidia gpu结构简介和cuda编程入门
    0.前言最近本人在写硕士大论文,需要写一些GPU相关的内容作为引言,所以在此总结一下。1.NVIDIAGPU线程管理CUDA的线程模型如上图,在调用一个CUDA函数时,需要定义grid和block的形状:func<<<grid,block>>>();在程序里定义的grid和block都是dim3类型的变量。当调用一个函数时,该函......
  • 使用 Podman Desktop 在 Windows 11 WSL2 环境中启动宿主机的 GPU 进行深度学习
    使用PodmanDesktop在Windows11WSL2环境中启动宿主机的GPU进行深度学习概述本文将指导您如何利用PodmanDesktop安装时提供的WSL2环境,来启动宿主机的GPU进行深度学习任务。前提条件确保您的Windows11已经启用了WSL2和虚拟化功能,并且安装了最新版本的NVIDI......
  • NVIDIA GPU Operator
    NVIDIAGPUOperator是一个用于在Kubernetes集群上自动化部署、配置和管理NVIDIAGPU及相关硬件资源的工具。它通过KubernetesOperator框架来实现自动化管理,简化了在Kubernetes环境中使用GPU的过程。以下是NVIDIAGPUOperator的主要功能和组件:###主要功能1.**自......
  • 无需昂贵GPU:本地部署开源AI项目LocalAI在消费级硬件上运行大模型
    无需昂贵GPU:本地部署开源AI项目LocalAI在消费级硬件上运行大模型随着人工智能技术的快速发展,越来越多的AI模型被广泛应用于各个领域。然而,运行这些模型通常需要高性能的硬件支持,特别是GPU(图形处理器),这往往导致较高的成本门槛。为了打破这一限制,开源AI项目LocalAI提供了一种......
  • 无需昂贵GPU:本地部署开源AI项目LocalAI你在消费级硬件上运行大模型
    前言本文主要介绍如何在本地服务器部署无需依托高昂价格的GPU,也可以在本地运行离线AI项目的开源AI神器LoaclAI,并结合cpolar内网穿透轻松实现远程使用的超详细教程。随着AI大模型的发展,各大厂商都推出了自己的线上AI服务,比如写文章的、文字生成图片或者视频的......