摘要:
· 英伟达周一宣布了用于运行人工智能模型的新一代人工智能芯片和软件。
· 新的AI图形处理器被命名为Blackwell,预计将于今年晚些时候发货。
· 在宣布这一消息之际,公司和软件制造商仍在争先恐后地获得当前一代的H100和类似芯片。
英伟达周一宣布了用于运行人工智能模型的新一代人工智能芯片和软件。该公告是在英伟达在圣何塞举行的开发者大会上宣布的,正值这家芯片制造商寻求巩固其作为人工智能公司首选供应商的地位之际。
自 OpenAI 的 ChatGPT 于 2022 年底掀起 AI 热潮以来,英伟达的股价上涨了五倍多,总销售额增长了两倍多。Nvidia 的高端服务器 GPU 对于训练和部署大型 AI 模型至关重要。像这样的公司Microsoft和元已经花费了数十亿美元购买芯片。
新一代 AI 图形处理器被命名为 Blackwell。第一款Blackwell芯片名为GB200,将于今年晚些时候发货。英伟达正在用更强大的芯片吸引客户,以刺激新订单。例如,公司和软件制造商仍在争先恐后地获得当前一代的“Hopper”H100和类似芯片。
“Hopper 太棒了,但我们需要更大的 GPU,”英伟达首席执行官黄仁勋周一在该公司在加州举行的开发者大会上表示。
英伟达股价在周一的延长交易中下跌超过1%。
该公司还推出了名为NIM的创收软件,这将使部署AI变得更加容易,这为客户提供了另一个理由,让他们在不断上升的竞争对手领域坚持使用Nvidia芯片。
英伟达高管表示,该公司正不再是雇佣芯片提供商,而更像是像Microsoft或苹果这样的平台提供商,其他公司可以在其上构建软件。
“布莱克威尔不是一个芯片,它是一个平台的名称,”黄仁勋说。
“可销售的商业产品是GPU,软件都是为了帮助人们以不同的方式使用GPU,”英伟达企业副总裁Manuvir Das在接受采访时说。“当然,我们仍然这样做。但真正改变的是,我们现在真的有了商业软件业务。
Das表示,英伟达的新软件将使在英伟达的任何GPU上运行程序变得更加容易,即使是可能更适合部署但不适合构建AI的旧GPU。
“如果你是一名开发人员,你有一个有趣的模型,你希望人们采用,如果你把它放在NIM中,我们将确保它可以在我们所有的GPU上运行,这样你就可以接触到很多人,”Das说。
· 认识 Blackwell,Hopper 的继任者
Nvidia 的 GB200 Grace Blackwell 超级芯片,配备两个 B200 图形处理器和一个基于 Arm 的中央处理器。
Nvidia 每两年更新一次其 GPU 架构,从而实现性能的大幅提升。过去一年发布的许多 AI 模型都是在该公司的 Hopper 架构上训练的——该架构被 H100 等芯片使用——该架构于 2022 年发布。
英伟达表示,基于Blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级,人工智能性能为20 petaflops,而H100为4 petaflops。英伟达表示,额外的处理能力将使人工智能公司能够训练更大、更复杂的模型。
该芯片包括英伟达所谓的“专门用于运行基于 Transformer 的 AI 的 transformer 引擎,这是支撑 ChatGPT 的核心技术之一。
Blackwell GPU 很大,将两个单独制造的芯片组合成一个芯片,由台积电.它还将作为名为 GB200 NVLink 2 的整个服务器提供,结合了 72 个 Blackwell GPU 和其他旨在训练 AI 模型的 Nvidia 部件。
英伟达首席执行官黄仁勋(Jensen Huang)在加利福尼亚州圣何塞举行的开发者大会上比较了新的“Blackwell”芯片与当前的“Hopper”H100芯片的尺寸。
亚马逊,谷歌,Microsoft和神谕将通过云服务出售对GB200的访问权。GB200 将两个 B200 Blackwell GPU 与一个基于 Arm 的 Grace CPU 配对。英伟达表示,亚马逊网络服务将建立一个拥有20,000 GB200芯片的服务器集群。
英伟达表示,该系统可以部署一个27万亿参数的模型。这甚至比 GPT-4 等最大的模型要大得多,据报道,GPT-4 有 1.7 万亿个参数。许多人工智能研究人员认为,具有更多参数和数据的更大模型可以解锁新功能。
英伟达没有为新的GB200或它使用的系统提供成本。据分析师估计,英伟达基于 Hopper 的 H100 每颗芯片的成本在 25,000 美元到 40,000 美元之间,整个系统的成本高达 200,000 美元。
英伟达还将销售B200图形处理器,作为占据整个服务器机架的完整系统的一部分。Nvidia 推理微服务
· Nvidia 推理微服务
英伟达还宣布,它将在其英伟达企业软件订阅中增加一款名为NIM的新产品,该产品代表英伟达推理微服务。
NIM 使使用较旧的 Nvidia GPU 进行推理或运行 AI 软件的过程变得更加容易,并将允许公司继续使用他们已经拥有的数亿个 Nvidia GPU。与新 AI 模型的初始训练相比,推理需要更少的计算能力。NIM 使想要运行自己的 AI 模型的公司能够运行自己的 AI 模型,而不是从 OpenAI 等公司购买对 AI 结果的访问权即服务。
该策略是让购买基于 Nvidia 的服务器的客户注册 Nvidia 企业版,每个 GPU 每年的许可证费用为 4,500 美元。
英伟达将与Microsoft或Hugging Face等人工智能公司合作,确保他们的人工智能模型经过调整,可以在所有兼容的英伟达芯片上运行。然后,使用 NIM,开发人员可以在自己的服务器或基于云的 Nvidia 服务器上高效运行模型,而无需冗长的配置过程。
“在我的代码中,我调用了 OpenAI,我将替换一行代码,将其指向我从 Nvidia 获得的这个 NIM,”Das 说。
英伟达表示,该软件还将帮助人工智能在配备GPU的笔记本电脑上运行,而不是在云端的服务器上运行。
扫码获取免费GPU服务租赁
标签:伟达,芯片,人工智能,黄仁勋,AI,Nvidia,GPU From: https://blog.csdn.net/mwkjhl/article/details/136883728