• 2024-10-29Debian系统显卡驱动从官方驱动回退到Nouveau
    系统环境:Debian12.5,有桌面环境NvidiaGTX650显卡驱动:nvidia-tesla-470-470.256.02本来照着网上的教程想要安装官方的驱动,结果发现虽然nvidia-smi可以正常显示,但是桌面环境却崩掉了,开机不是黑屏就是极低分辨率,显示SoftwareRendering(软件渲染)。尝试搜索教程无果,遂放弃,准
  • 2024-10-29Nvidia超越苹果,成为全球市值最高的公司
    Nvidia(辉达/英伟达)在周五的交易中成功超越苹果,成为全球市值最高的公司。这一成就主要得益于市场对其专门为人工智能(AI)设计的芯片的强劲需求,推动了Nvidia股价创下新高。 市值之争根据LSEG的数据,Nvidia的市值一度达到了3.53万亿美元,略微高于苹果的3.52万亿美元。虽然Nvidia当
  • 2024-10-27Windows 10上编译FFmpeg以支持NVIDIA GPU加速
    目录一、引言二、使用NVDIA加速的准备工作三、编译FFmpeg四、使用FFmpeg五、常见问题及解决方案六、总结一、引言        FFmpeg是一个强大的多媒体处理工具,它支持音频、视频和流媒体的录制、转换和流式传输。NVIDIAGPU提供了强大的计算能力,通过CUDA和NVENC
  • 2024-10-27NVIDIA 发布适用于网络安全的 NIM Blueprint
    德勤使用适用于容器安全的NVIDIANIMAgentBlueprint帮助企业利用开源软件构建安全的AI。文章目录
  • 2024-10-26Ubuntu20.04 更新Nvidia驱动 + 安装CUDA12.1 + cudnn8.9.7
    一、概述    最近客户给了几台GPU服务器,长期放置落灰那种,然后想利用起来,所以上去看看了配置,系统是Ubuntu20.04,相关的驱动版本稍嫌老一些,所以需要更新Nvidia驱动,同时在安装CUDA和CUDNN,查看了显卡型号之后,打算使用onnxruntime进行推理,对比了版本,最后选择了CUDA12.1+CU
  • 2024-10-25CUDA和OpenCL在GPU加速计算上有什么区别
    在GPU加速计算领域,CUDA和OpenCL是两种主流的编程框架。它们之间的主要区别包括:1.平台兼容性不同;2.性能优化不同;3.语言支持不同;4.生态系统和社区支持不同;5.应用领域不同。CUDA是由NVIDIA推出,专为其GPU设计,因此在NVIDIA硬件上提供了优化的性能。相比之下,OpenCL是一个开放标准,在跨平
  • 2024-10-20AI跟踪报道第61期-新加坡内哥谈技术-本周AI新闻: 黄仁勋精彩BG2采访和苹果研发人员对AI推理的质疑
    每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://reng
  • 2024-10-19英伟达发布了个70B的新AI模型,碾压GPT-4和Claude3.5
    Nvidia悄然推出了一款新型人工智能模型,名为Llama-3.1-Nemotron-70B-Instruct,表现出色,已经超越了OpenAI的GPT-4和Anthropic的Claude3.5,标志着人工智能领域竞争格局的重大变化。这款模型在知名AI平台HuggingFace上发布,虽然没有太大的宣传,但其卓越的性能迅速引起
  • 2024-10-17docker以及nvidia-docker的安装、移植以及使用案例
    详细描述docker、nvidia-docker的安装步骤,通过案例描述docker的基本使用命令,包含docker创建、移植、加载等。文档真实案例编写,亲测可用,傻瓜式教程,直接复制即可成功安装。默认已经安装显卡驱动。一、docker的安装#由于apt官方库里的docker版本可能比较旧,所以先卸载可能
  • 2024-10-17CUTLASS: NVIDIA的高性能CUDA线性代数库
    CUTLASS简介CUTLASS(CUDATemplatesforLinearAlgebraSubroutines)是NVIDIA开发的一个开源CUDAC++模板库,用于实现高性能的矩阵乘法(GEMM)和相关计算。它采用了类似cuBLAS和cuDNN的分层分解和数据移动策略,将这些"移动部件"分解为可重用的模块化软件组件,通过C++模板类进行
  • 2024-10-17VMware Private AI Foundation with NVIDIA - 生成式人工智能解决方案
    VMwarePrivateAIFoundationwithNVIDIA-生成式人工智能解决方案通过NVIDIA的加速计算以及VMwareCloudFoundation的虚拟基础架构管理和云管理来运行生成式AI工作负载请访问原文链接:https://sysin.org/blog/vmware-private-ai-foundation-nvidia/查看最新版。原创
  • 2024-10-16Nvidia RTX Desktop Manager跳过硬件要求
    相信大家看了上一篇文章,肯定还想继续白*英伟达。所以今天我给大家带来了NvidiaRTXDesktopManager跳过硬件要求的教程。如果要跳过硬件要求的话,还是改NVI文件。由于NVI文件非常多,这里我就不一一介绍怎么删除了。如果感兴趣的朋友可以自己研究。这里我就直接放出懒人包了。
  • 2024-10-14【人工智能毕设课设】基于YOLOv9实现的线下课堂学生上课状态识别检测系统(附项目源码和数据集下载)
    项目完整源码与模型源码:项目完整源码及教程-点我下载数据集:学生上课状态检测数据集-点我下载基于YOLOv9的线下课堂学生上课状态识别检测系统项目简介在现代教育环境中,教师对于学生在课堂上的状态监控需求日益增加。传统的监控方式往往依赖于人工观察,不仅效率低下,而且难
  • 2024-10-12Docker和K8S集群调用GPU
    参考:安装Docker插件https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.htmlUnbntu使用Docker调用GPUhttps://blog.csdn.net/dw14132124/article/details/140534628https://www.cnblogs.com/li508q/p/18444582环境查看系统环境#
  • 2024-10-11Debian12 docker容器使用N卡GPU(以emby为例,其他docker容器也可以参考)
    加源安装curl-s-Lhttps://nvidia.github.io/nvidia-docker/gpgkey>/etc/apt/keyrings/nvidia-docker.keycurl-s-Lhttps://nvidia.github.io/nvidia-docker/debian11/nvidia-docker.list>/etc/apt/sources.list.d/nvidia-docker.listsed-i-e"s/^deb/de
  • 2024-10-09【NVIDIA NIM 黑客松训练营】使用NVIDIA AI Workbench 创建一个在线代码生成器
    随着人工智能技术的不断进步,越来越多的工具和服务开始集成AI功能来提升用户体验。本教程将指导你如何使用PythonFlask框架结合NVIDIA提供的NIM服务,创建一个简单的在线代码生成器。用户可以通过一个直观的Web界面输入请求,系统将返回对应的Python代码。项目背景对于那些正
  • 2024-10-09Docker 环境下 GPU 监控实战:使用 Prometheus 实现 DCGM Exporter 部署与 GPU 性能监控
    Docker环境下GPU监控实战:使用Prometheus实现DCGMExporter部署与GPU性能监控文章目录Docker环境下GPU监控实战:使用Prometheus实现DCGMExporter部署与GPU性能监控一查看当前GPU信息二dcgm-exporter部署1)Dockerrun运行2)Dockercompose运行三
  • 2024-10-08NVIDIA Jetson Orin边缘计算MEC全局化部署
    前情提要随着AI技术已经在交通、物流、安防、智能制造等方面适用广泛,市场对更低功耗、更高性价比和更强大的AI计算性能的需求不断增长。企业基于NVIDIA平台产品开发势在必行!集和诚作为英伟达NPN伙伴,与英伟达紧密协作,并积极投入基于英伟达平台AI边缘计算控制器的研发过程。
  • 2024-10-04Ubuntu+Cuda+cudnn安装
    问题描述实验室的Ubuntu主机重启之后显示器分辨率显示异常,双屏只亮了一个,另外一个显示无信号。打开nvidia-smi显示找不到驱动,遂从网上搜集重新安装驱动以及cudnn的教程。此文记录此过程,方便后续查阅。软硬件版本:Rtx3090+Ubuntu22.041.安装驱动#removenivida*sudoapt-g
  • 2024-10-02使用 NVIDIA Container Toolkit 和 Docker 配置 GPU 深度学习环境
    在深度学习开发中,充分利用GPU资源是提高模型训练效率的关键。本文将详细介绍如何安装NVIDIAContainerToolkit,并配置Docker容器以利用GPU进行深度学习训练。我们将结合NVIDIAContainerToolkit的安装和Docker容器的配置,确保你拥有一个高效的GPU开发环境。1.安装
  • 2024-09-30NVIDIA Hopper 架构
    全球AI基础设施引擎实现数量级的性能飞跃文章目录一、为新一代工作负载打造的加速计算平台。二、探索技术突破1.Transformer引擎2.NVLink、NVSwitch和NVLinkSwitch系统3.NVIDIA机密计算4.第二代MIG5.DPX指令一、为新一代工作负载打造的
  • 2024-09-28高性能计算秘密武器:NVIDIA B100与B200如何让你的HPC性能飙升?
    嘿,各位科技界的狂热粉丝、AI领域的探索先锋,你们是否正站在高性能计算(HPC)的十字路口,寻找那把能开启全新纪元的钥匙?今天,就让我带你深入剖析NVIDIA的最新力作——B100与B200,一同见证它们在HPC领域掀起的革命性风暴! SXM架构,重塑计算未来想象一下,你的科研服务器挣脱了传统PC
  • 2024-09-27Install Cuda Toolkit
     (base)zzh@ZZHPC:~$sudoubuntu-driversdevices==/sys/devices/pci0000:00/0000:00:1b.4/0000:02:00.0==modalias:pci:v000010DEd00001F07sv000010DEsd000012ADbc03sc00i00vendor:NVIDIACorporationmodel:TU106[GeForceRTX2070Rev.A]driver:
  • 2024-09-25阿里云函数计算 x NVIDIA 加速企业 AI 应用落地
    前言阿里云函数计算(FunctionCompute,FC)是一种无服务器(Serverless)计算服务,允许用户在无需管理底层基础设施的情况下,直接运行代码。与传统的计算架构相比,函数计算具有高灵活性和弹性扩展的特点,用户只需专注于业务逻辑的开发,系统自动处理计算资源的分配、扩展和维护。同时,函数计算
  • 2024-09-24阿里云函数计算 x NVIDIA 加速企业 AI 应用落地
    作者:付宇轩前言阿里云函数计算(FunctionCompute,FC)是一种无服务器(Serverless)计算服务,允许用户在无需管理底层基础设施的情况下,直接运行代码。与传统的计算架构相比,函数计算具有高灵活性和弹性扩展的特点,用户只需专注于业务逻辑的开发,系统自动处理计算资源的分配、扩展和维护。