• 2024-07-02CUDA版本切换
    bashrc中环境变量设置为不带特定版本的CUDA路径:exportPATH=/usr/local/cuda/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}通过修改软链接来切换CUDA版本sudorm-rf/usr/local/cuda#删除之前创建的软
  • 2024-07-02解决PyTorch中的`CUDA out of memory`错误
    解决PyTorch中的`CUDAoutofmemory`错误解决PyTorch中的`CUDAoutofmemory`错误
  • 2024-07-01动手学深度学习5.6 GPU-笔记&练习(PyTorch)
    以下内容为结合李沐老师的课程和教材补充的学习笔记,以及对课后练习的一些思考,自留回顾,也供同学之人交流参考。本节课程地址:17使用和购买GPU【动手学深度学习v2】_哔哩哔哩_bilibili本节教材地址:5.6.GPU—动手学深度学习2.0.0documentation(d2l.ai)本节开源代码:...>d
  • 2024-06-30深度学习CUDA Out of Memory原因总结和方法
    CUDAOutofMemory原因总结和方法原因总结显存不足:深度学习模型(尤其是大型模型)在训练或推理时需要大量的显存。如果显存容量不足,会导致CUDAOutofMemory错误。批处理大小过大:在训练过程中,批处理(batch)大小设置过大时,会占用过多的显存,导致显存溢出。模型过大:模型
  • 2024-06-30CUDA编程的注意事项和使用流程详解
    目录一、背景二、CUDA编程的基本概念 2.1、CUDA线程(Thread):2.2、线程块(Block):2.3、网格(Grid):2.4、内存模型:三、CUDA编程流程3.1.环境配置3.2.编写CUDA代码 3.2.1、初始化和分配内存3.2.2、数据传输3.2.3、内核函数(Kernel)调用3.2.4、结果传回主机3.2.5、释放资源
  • 2024-06-3010分钟安装好torch的GPU版本(Windows)
    pytorch-gpu1.确定cuda版本2.确定Python版本3开始下载-cu118-cp383.1下载cuda3.2下载torchvision4.下载好了5.开始安装6.开始验证1.确定cuda版本nvcc-V版本为11.8,一会下载的版本为cu1182.确定Python版本确定python版本为为3.8,一会下载为cp38
  • 2024-06-24'MMDetection3D'+'waymo-open-dataset-tf-2-6-0'+'pytorc2.3.1+cu121'安装
    安装pytorc2.3.1+cu121步骤1.创建并激活一个conda环境condacreate-nmmdpython=3.8-ycondaactivatemmd步骤2.基于PyTorch官方说明安装PyTorch,例如:pip3installtorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu121步骤3.验
  • 2024-06-23英伟达的驱动跟CUDA的关系,我可以类比为python解释器和python吗?
    问题:英伟达的驱动跟CUDA的关系,我可以类比为python解释器和python吗?AI答案:是的,你可以把英伟达的驱动和CUDA的关系类比为Python解释器和Python语言。具体来说:英伟达驱动(NVIDIADriver):这个类似于Python解释器。它是底层的软件,负责与硬件(即GPU)进行通信。英伟达驱动提供了基本的
  • 2024-06-23non_blocking=True 与 torch.cuda.synchronize()
    需要注意的是:GPU和CPU之间是异步执行的,CPU向GPU下达指令以后会立刻执行之后的代码,CPU不会等待GPU执行完成一、non_blocking=True 目的:压缩gpu的效果,避免CPU与GPU设备数据传输时间开销带来的计算效率低下在PyTorch中, non_blocking 是一个布尔类型的参数,用于指定是否启用
  • 2024-06-23lazarus调用Onnxruntime
    一、下载OnnxruntimeGitHub-microsoft/onnxruntime:ONNXRuntime:cross-platform,highperformanceMLinferencingandtrainingaccelerator注意win7运行时会出错。可以下载 https://pan.baidu.com/s/18gIMP7r3lZAmgUTj4H2ugA?pwd=6666 编译好的可在win7下使用。还
  • 2024-06-22anaconda安装①tensorflow-cpu 1.12.0py3.6②tensorflow-gpu 2.4.0③pytorch 2.4.1 通用 cuda 11.0,cudnn 8.0,py38
    本机环境:Win10、rtx4060tianaconda常用命令condaenvlist#查看已有环境名称condaenvlistcondaactivateenv_name #激活环境condaactivateenv_namecondadeactivateenv_name#退出环境condadeactivateenv_namecondacreate-nenv_namepython=3.x#创建p
  • 2024-06-22Stable Diffusion部署教程,开启你的AI绘图之路
    本文环境系统:Ubuntu20.0464位内存:32G环境安装2.1安装GPU驱动在英伟达官网根据显卡型号、操作系统、CUDA等查询驱动版本。官网查询链接https://www.nvidia.com/Download/index.aspx?lang=en-us注意这里的CUDA版本,如未安装CUDA可以先选择一个版本,稍后再安装CUDA.点击S
  • 2024-06-22NV驱动重装不会影响CUDA
    简单的说,我NV驱动挂了,重装报错NVIDIA安装程序失败:PhysX系统软件存在或相同的版本我找到了intel驱动卸载的教程:https://www.intel.cn/content/www/cn/zh/support/articles/000091878/graphics.html选项把NV的全选(第5步),和第六步改成NV就卸载成功了重安一边NV就成功了 实测
  • 2024-06-20yolov8搭配GPU环境,并且解决GPU环境下设备运行报错问题
    1.GPU1.1GPU简介    GPU,即图形处理单元,是专为图形渲染而设计的处理器。其独特的并行计算能力使得它在处理大规模数据和复杂图形时表现出色。GPU不仅在游戏和虚拟现实领域发挥着关键作用,还广泛应用于深度学习、物理模拟和通用计算等领域。通过数以千计的核心,GPU能够
  • 2024-06-19CUDA 版本查看
    查看cuda版本的指令:nvidia-smincvv-Vpython-c"importtorch;print(torch.version.cuda)"nvidia-smi(base)liuliu@liuliu-Legion-Y9000P-IAH7H:~/EchoFusion$nvidia-smiMonJan1511:14:412024+--------------------------------------------------
  • 2024-06-17cuda程序优化-3.通信简介
    硬件结构CPU<->GPU:通过PCIe进行通信GPU<->GPU:NVLink,通过Switch桥接器辅助访问其他卡的HBM多机通信:InfiniBandwithGPUDirectRDMA(简称GDRDMA),需要专用网卡卡间通信-RingAllReducenvidia文档1.初始状态卡数:N(该图为4),总数据量为K.在RingAllreduce算法
  • 2024-06-15存档-环境信息conda
    3060  (Pytorch2)4090(Pytorch2)3060(Pytorch1)name:basechannels:-nvidia/label/cuda-11.8.0-defaultsdependencies:-_libgcc_mutex=0.1=main-_openmp_mutex=5.1=1_gnu-boltons=23.0.0=py310h06a4308_0-brotlipy=0.7.0=py310h7f8727e_1002-
  • 2024-06-15在windows笔记本电脑部署GLM4大模型
    (笔记本电脑:intel处理器i9-13900HX、64G内存、NVIDIARTX4080(12G)、操作系统windows11家庭版)一、下载anaconda31.清华镜像源下载anaconda3。下载地址:Indexof/anaconda/archive/|清华大学开源软件镜像站|TsinghuaOpenSourceMirror在网页上找到Anaconda3-2024.02-1-
  • 2024-06-13如何在WSL2安装CUDA
    Windows11和Windows10版本21H2支持在WindowsSubsystemforLinux(WSL)实例中运行使用英伟达™CUDA进行GPU硬件加速的现有ML工具、库和流行框架。这包括PyTorch和TensorFlow,以及原生Linux环境中可用的所有Docker和英伟达容器工具包支持。方法在WIn
  • 2024-06-12pytorch--Matrix相关
    pytorch–Matrix相关1.矩阵生成Tensor,即张量,是PyTorch中的基本操作对象,可以看做是包含单一数据类型元素的多维矩阵。从使用角度来看,Tensor与NumPy的ndarrays非常类似,相互之间也可以自由转换,只不过Tensor还支持GPU的加速。1.1创建一个没有初始化的矩阵x=torch.empty(2,
  • 2024-06-11在Python中使用GPU进行并行计算的方法
    在Python中使用GPU进行计算通常涉及到一些特定的库,如NumPy、SciPy的GPU加速版本(如CuPy、PyCUDA等)或深度学习库(如TensorFlow、PyTorch等)。这些库能够利用GPU进行并行计算,从而加速数据处理和模型训练等任务。以下是一个使用TensorFlow和PyTorch在Python中利用GPU进行计算的详细
  • 2024-06-10笔记本电脑(win11+3060+conda)安装PyTorch踩坑记录
    简而言之,先看你的显卡,打开CMD,输入nvidia-smi,右上角有一个CUDA:XX.X表示当前显卡及当前驱动支持的最高版本CUDA。输入nvidia-smi-q可以看到显卡架构(或者直接去Nvidia官网找你的显卡)。再打开这个连接,查看你显卡架构支持的最低版本CUDA。从中选择一个cuda版本torch是自带了cu
  • 2024-06-09Pytorch GPU版环境搭建 CUDA11.2
    简单记录下~参考:深度学习环境配置超详细教程【Anaconda+Pycharm+PyTorch(GPU版)+CUDA+cuDNN】pythonpytorch-GPU环境搭建(CUDA11.2)版本概览Python3.8CUDA11.2cuDNN8.1.1torch1.9.1torchvision0.10.1torchaudio0.9.1CUDA判断自己应该下载什么版本的cu
  • 2024-06-09CUDA编程学习笔记-02
    CUDA代码高效计算策略高效公式✒️Math代表数学计算量,Memory代表每个线程的内存
  • 2024-06-08【报错解决】深度学习模型训练时cuda内存足够但测试时反而报错cuda out of memory
    报错描述报错的代码如下:model=reader(config=args,encoder=encoder)#初始化模型model.to('cuda')#把模型放到gpu上model.load_state_dict(torch.load(join(args.checkpoint_path,'best_ckpt_model1.pkl')))#加载模型参数model=torch.nn.DataParallel(model)#并行化