Gpu
  • 2025-01-09无需昂贵GPU:本地部署开源AI项目LocalAI你在消费级硬件上运行大模型
    前言本文主要介绍如何在本地服务器部署无需依托高昂价格的GPU,也可以在本地运行离线AI项目的开源AI神器LoaclAI,并结合cpolar内网穿透轻松实现远程使用的超详细教程。随着AI大模型的发展,各大厂商都推出了自己的线上AI服务,比如写文章的、文字生成图片或者视频的
  • 2025-01-09CUDA_VISIBLE_DEVICES
    CUDA_VISIBLE_DEVICESflyfishCUDA_VISIBLE_DEVICES是一个环境变量,它用于控制哪些GPU设备对CUDA应用程序可见。通过设置这个环境变量,可以指定应用程序可以使用的特定GPU,而忽略其他。当你在命令行中使用exportCUDA_VISIBLE_DEVICES=0,1,2,3或者exportCUDA_VISIB
  • 2025-01-09CPU、MCU、MPU、SOC、DSP、ECU、GPU、FPGA傻傻分不清楚?一文讲清它们的区别
    前言在电子领域中,我们经常提到CPU、MCU、MPU、SOC、DSP、ECU、GPU、FPGA等,它们都是常见的芯片或处理器类型,但是却在结构、功能和应用场景上存在着显著的差异。有些朋友可能不太能区分,今天我们就来依次介绍一下。一、定义与功能1、CPU(CentralProcessingUnit,中央处理器)定义:是
  • 2025-01-09解锁新应用:探索GPU扩展是如何提升渲染农场的工作效率
    渲染农场是一种基于计算机GPU集群的渲染解决方案,主要用于分布式渲染。它将渲染任务分发到多个计算机(渲染节点)上,通过GPU并行计算和协同工作,实现大规模的3D渲染任务,从而提高渲染效率和速度。渲染农场广泛应用于影视制作、三维动画、游戏开发、广告设计、建筑可视化设计等领域。联瑞
  • 2025-01-08C# 调用YoloSharp.Gpu,调用Microsoft.ML.OnnxRuntime.Gpu出错126
    今天使用C#调用YoloSharp.Gpu,加载onnx模型,然后检测,代码很简单。//LoadtheYOLOpredictorpredictor??=newYoloPredictor(@"pathtoyour.onnx");//Runmodelvarresult=predictor.Detect(@"pathtoyourimage");一运行就爆错ONNXRuntimeError:1:FAIL:LoadL
  • 2025-01-08GPU介绍之CUDA
    关注我,持续分享逻辑思维&管理思维&面试题;可提供大厂面试辅导、及定制化求职/在职/管理/架构辅导;推荐专栏《10天学会使用asp.net编程AI大模型》,目前已完成所有内容。一顿烧烤不到的费用,让人能紧跟时代的浪潮。从普通网站,到公众号、小程序,再到AI大模型网站。干货满满。学成后可
  • 2025-01-08深度学习的加速器:Horovod,让分布式训练更简单高效!
    什么是Horovod?Horovod是Uber开发的一个专注于深度学习分布式训练的开源框架,旨在简化和加速多GPU、多节点环境下的训练过程。它以轻量级、易用、高性能著称,特别适合需要快速部署分布式训练的场景。Horovod的名字来源于俄罗斯传统舞蹈“Хоровод”,寓意多个计算单元
  • 2025-01-08一文彻底搞懂英伟达PCIE和Nvlink版本的显卡怎么选?
    英伟达针对企业级服务器推出了两种不同版本的显卡,一种是Nvlink版本,另一种是PCIE版本,这两种究竟有何区别,我们用于ai训练的时候又该如何选择呢?首先我们来看看PCIE版本的,PCIe版显卡对于PCIE版本的GPU而言,仅能通过桥接器与相邻的GPU相连,如下图的GPU1只能直接访问GPU2,而不能直接
  • 2025-01-07docker 官网安装+ nvidia gpu toolkit
    docker安装https://docs.docker.com/engine/install/ubuntu/#AddDocker'sofficialGPGkey:sudoapt-getupdatesudoapt-getinstallca-certificatescurlsudoinstall-m0755-d/etc/apt/keyringssudocurl-fsSLhttps://download.docker.com/linux/ubuntu
  • 2025-01-07防坑指南,搞深度学习小白必备的服务器装机知识
    很多时候,我们想要跑大模型,但是实验室的算力资源有限,分到每一个同学身上就更少了,有的同学可能会选择去租赁算力,但是时间长了就不是很划算了,有时候导师会给我们一笔钱让我们去组装一台用于深度学习的服务器,那么究竟知道哪些必要知识能让我们装机的时候少被商家坑呢?首先明确一个
  • 2025-01-06能发顶会!图神经网络(GNN)创新方案整理
    2024深度学习发论文&模型涨点之——图神经网络图神经网络(GraphNeuralNetworks,简称GNN)是一种专门用于处理图数据的深度学习模型。它通过迭代地传递和聚合节点及其邻居的特征信息,从而学习节点和图的表示。GNN的核心思想是利用图中的节点和边之间的关系,通过消息传递和节点更新
  • 2025-01-05`QualitySettings.asyncUploadPersistentBuffer
    在Unity中,`QualitySettings.asyncUploadPersistentBuffer`是一个静态属性,它控制着纹理上传到GPU的异步方式。当启用时(设置为`true`),Unity会创建一个持久的缓冲区用于异步上传纹理数据到GPU,这可以提高性能,尤其是在有大量纹理需要加载或更新的情况下。具体来说,当使用异步纹
  • 2025-01-05DoraCloud 桌面云方案应用于 AI 教学方案
    DoraCloud桌面云方案应用于AI教学方案随着人工智能(AI)技术的快速发展,越来越多的教育机构和培训机构开始将AI教学引入课程内容。然而,AI教学需要强大的计算资源,尤其是在机器学习(ML)、深度学习(DL)、数据分析等领域。通过DoraCloud桌面云方案,可以为AI教学提供一个灵活、高效、
  • 2025-01-04改变GPU会影响大型语言模型的行为
    改变GPU会影响大型语言模型的行为GPU对大语言模型行为的影响在人工智能(AI)和机器学习领域,硬件与软件之间的关系一直引人关注。近期的一项实验揭示了GPU(图形处理单元)模型变更如何显著影响大型语言模型(LLM)的行为,即使在其他条件保持不变的情况下。本文将深入探讨这一现象,比较N
  • 2025-01-04wsl 启用gpu
    在WSL(WindowsSubsystemforLinux)中启用GPU加速需要一系列步骤,以确保硬件和软件之间的兼容性。以下是详细步骤:1.确认WSL版本和GPU硬件兼容性首先,确保你的Windows版本支持WSL2,并且你的GPU与WSL2兼容。WSL2需要Windows10版本2004(内部版本19041)或更高版本,以及支持虚拟化的处理器
  • 2025-01-04手机GPU和PC显卡有何不同?小芯片为何能玩大型游戏?
    视频地址:https://www.youtube.com/watch?v=Raxr-BpJiQs
  • 2025-01-03【已解决】运行onnxruntime-gpu时遇到RuntimeError问题
    问题描述在使用onnxruntime进行模型推理时希望使用GPU进行加速,但运行时出现RuntimeError具体报错如下:***************EPError***************EPErrorD:\a_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:891onnxruntime::python::CreateExecutionProviderInst
  • 2025-01-03AIGC生图实战技巧分享
    目录引言
  • 2025-01-03CUDA编程【5】获取GPU设备信息
    文章目录通过cudaAPI获取1.获取设备数量2.获取当前设备ID3.设置当前设备4.获取设备属性5.获取设备限制6.获取设备共享内存配置7.获取设备缓存配置8.获取设备是否支持统一内存9.获取设备是否支持并发内核执行10.获取设备的最大线程块数11.获取设备的时钟频率
  • 2025-01-03.Net程序员机会来了,微软官方新推出一个面向Windows开发者本地运行AI模型的开源工具
    想要开发AI产品的.Net程序员机会来了,这个项目应该好好研究。虽然说大模型基本都有提供网络API,但肯定没有直接使用本地模型速度快。最近微软官方新推出AIDevGallery开源项目,可以帮助Windows开发人员学习如何将具有本地模型和API的AI添加到Windows应用程序中。01项目简介AI
  • 2025-01-02编译CUDA时的ARCH参数
    https://blog.csdn.net/Vingnir/article/details/135255072在编译CUDA程序时,ARCH是指定给nvcc(NVIDIACUDACompiler)的一个重要参数。ARCH代表着目标GPU的计算能力(ComputeCapability),这是一个特定于NVIDIAGPU架构的指标,用于表明GPU支持的特性和指令集。关于CUDA计算能力(Com
  • 2025-01-02.Net程序员机会来了,微软官方新推出一个面向Windows开发者本地运行AI模型的开源工具
    想要开发AI产品的.Net程序员机会来了,这个项目应该好好研究。虽然说大模型基本都有提供网络API,但肯定没有直接使用本地模型速度快。最近微软官方新推出AIDevGallery开源项目,可以帮助Windows开发人员学习如何将具有本地模型和API的AI添加到Windows应用程序中。01项目简介AI
  • 2025-01-011.GPU简介及英伟达开发环境配置
    前言Thisbookshowshow,byharnessingthepowerofyourcomputer’sgraphicsprocessunit(GPU),youcanwritehigh-performancesoftwareforawiderangeofapplications.Althoughoriginallydesignedtorendercomputergraphicsonamonitor(andstillus
  • 2025-01-0111.18
    总的来说,在预训练阶段,DeepSeek-V3每处理1万亿个词元仅需18万小时的H800GPU时间,使用配备2048块H800GPU的集群,只需3.7天即可完成。整个预训练耗时不到两个月,总计使用266.4万GPU小时。此外,上下文长度扩展耗费11.9万GPU小时,后期训练(如监督微调和强化学习)耗费5
  • 2025-01-0111.25
    事实上,DeepSeek的成功并非偶然。这家由中国知名量化私募巨头幻方量化于2023年创立的公司,在成立仅半年后就推出了第一代大模型DeepSeekCoder,这一模型不仅免费商用,还完全开源。不过,在当时的百模大战中,DeepSeek发布的新模型或许并未引起太多关注。然而,令人意想不到的是,在后来