首页 > 其他分享 >AMD的旗舰AI加速器推出MI325X对标Nvidia H200

AMD的旗舰AI加速器推出MI325X对标Nvidia H200

时间:2024-06-06 11:58:00浏览次数:12  
标签:MI325X AI AMD 芯片 Nvidia FP8 H200

AMD计划于今年晚些时候推出旗舰AI加速器MI325X,提供更高的带宽。

这次发布意味着AMD正在跟随Nvidia的模式,转向了“Instinct”加速器系列的年度发布节奏。

据目前了解的信息,Instinct MI325X与Nvidia的H200非常相似,是AMD在去年12月Advancing AI活动中详细介绍的GPU的HBM3e增强版。该部件是由八个计算芯片、四个I/O芯片和八个内存芯片组成,通过2.5D和3D封装技术组合而成,是迄今为止最复杂的部件之一。

尽管CDNA 3 GPU芯片推动着即将推出的芯片,但在FLOPS方面并没有实质性的变化。该芯片仍然具有1.3 petaFLOPS的BF/FP16密集性能,或者在降至FP8时达到2.6 petaFLOPS。需要指出的是,MI325X在任何给定精度上都比H200更快。

AMD似乎在扩展其相对于Nvidia的内存优势。发布时,192GB的MI300X拥有比H100多两倍的HBM3,比即将推出的H200多51GB。MI325X将加速器的容量提升至288GB,比H200多两倍,比Nvidia在今年春季GTC上揭晓的Blackwell芯片多50%。

向HBM3e的转移还将提升MI325X的内存带宽至6TB/sec。虽然与MI300X的5.3TB/sec相比,增加了1.3倍,但最初希望达到8TB/sec的目标并没有实现,这与Nvidia的Blackwell GPUs相比。

要了解MI325X的内存配置情况,需要等待今年晚些时候的发布。

内存容量和带宽已经成为AI推理的主要瓶颈。运行8位精度时,每十亿参数需要约1GB的内存。因此,MI325X能够容纳2500亿参数模型,或者在八个GPU系统中接近2万亿参数模型,并且仍然有空间存储关键值缓存。

尽管硬件支持FP8是MI300X发布时的主要卖点之一,但AMD在其基准测试中通常专注于半精度性能。去年底,在与Nvidia争论AMD基准测试真实性时,了解到原因。对于很多基准测试,AMD依赖于vLLM——一个对FP8数据类型没有稳定支持的推理库。这意味着对于推理,MI300X只能使用FP16。

除非AMD能够克服这一限制,否则在H200上运行FP8模型将需要在MI325X上使用两倍的内存,从而消除其巨大的288GB容量可能带来的任何优势。更重要的是,H200在FP8浮点性能上将比MI325X在FP16时更高。

尽管AMD更愿意与Nvidia的Hopper一代产品进行比较,但更值得关注的是Blackwell系列,据称将于今年晚些时候开始进入市场。在其B200配置中,1000W的Blackwell部件承诺提供高达4.5 petaFLOPS的密集FP8和2.25 petaFLOPS的FP16性能,192GB的HBM3e内存,以及8TB/sec的带宽。

尽管如此,坚持使用FP/BF16数据类型进行训练和推理仍然有一定的价值。今年春天早些时候发布的Gaudi3拥有192GB的HBM2e内存和双芯片设计,能够输出1.8 petaFLOPS的密集FP8和FP16。这使其比H100/200高出1.85倍,比MI300X/325X高出1.4倍。

当然,这可能并不总是这样。相当多的努力已经投入到训练稀疏模型中,特别是对于Nvidia和晶圆级竞争者Cerebras而言。至少对于推理来说,支持稀疏浮点数学最终可能对AMD和Nvidia有利。

MI300A属于其自己的类别。Nvidia的Grace Hopper和Grace Blackwell超级芯片是完全不同的东西——它们不共享内存,也不太依赖先进封装技术。与此同时,Intel的Falcon Shores XPUs原本计划像AMD的MI300A一样共同封装CPU和GPU,但最终被改为Habana-Gaudi加上Xe图形处理器。

人工智能被炒的这么热,还没有真正见到哪个公司因为人工智能服务而挣钱。自动驾驶在2017年时,预测几年后就可以商用,现在还没有真正的商业化。做人工智能,还不如卖GPU,比如这个商业模式Sell GPUs

Reference
AMD Reveals MI325X

标签:MI325X,AI,AMD,芯片,Nvidia,FP8,H200
From: https://www.cnblogs.com/redclay/p/18234853

相关文章

  • 从提示工程到代理工程:构建高效AI代理的策略框架概述
    自ChatGPT推出以来,仅仅一年多的时间里,公众对于“人工智能”(AI)的认识已经发生了根本性的变化。这种变化部分源于公众意识的提高,更多则是基于这样一个认识:AI驱动的系统不仅可能,而且可能已经具备了与人类相当的能力和表现。ChatGPT不仅是AI能力的一个验证,更是半个多世纪以来AI研究成......
  • 高效论文生成:AI工具在学术写作中的应用与优势
    在学术探索的征途中,AI论文工具本应是助力前行的风帆,而非让人陷入困境的漩涡。我完全理解大家在面对论文压力的同时,遭遇不靠谱AI工具的沮丧与无奈。毕竟,时间可以被浪费,但金钱和信任却不可轻弃。作为一名资深的AI工具探索者,我在此分享一些经过我亲自验证、值得信赖的AI论文辅助......
  • AI写作时代:AI论文工具的高效应用指南
    众所周知,写论文是一项极其耗时间的事情,从开始的选题到文献资料搜索查阅,大纲整理等等一大堆的繁杂工作是极艰辛的。用AI写论文就不一样了,自动化生成文本为你节省了大量时间。优秀的AI工具生成的论文非常完备,能提供摘要、参考文献、致谢等材料参考,而且还查重率低,在5%左右。总体来......
  • 论文AI痕迹减少:AI工具在学术写作中的应用
    告诉大家一个非常残忍的答案,以后所有论文都会被查ai的。在考虑使用AI撰写学术论文的便捷性时,你可能会问:学术界难道没有预见到这种行为吗?答案是肯定的。学术界不仅关注传统的抄袭问题,还针对AI生成内容(AIGC)增加了一项名为“AIGC检测”的指标。这一检测的目的,正是为了识别和惩处......
  • Laravel Sail别名配置
    LaravelSail是Laravel的官方开发环境,它提供了一种轻松的方式来运行Laravel应用。开发推荐使用Sail环境。基于Docker又无需学习Docker。aliassail='sh$([-fsail]&&echosail||echovendor/bin/sail)'alias:这是一个shell命令,它可以用来为一个命令创建一个别......
  • AI写论文工具:笔灵AI论文,专业助力,一键生成
    在学术探索的征途中,AI论文工具本应是助力前行的风帆,而非让人陷入困境的漩涡。我完全理解大家在面对论文压力的同时,遭遇不靠谱AI工具的沮丧与无奈。毕竟,时间可以被浪费,但金钱和信任却不可轻弃。作为一名资深的AI工具探索者,我在此分享一些经过我亲自验证、值得信赖的AI论文辅助......
  • AI论文助手:从选题到成稿的全方位支持
    众所周知,写论文是一项极其耗时间的事情,从开始的选题到文献资料搜索查阅,大纲整理等等一大堆的繁杂工作是极艰辛的。用AI写论文就不一样了,自动化生成文本为你节省了大量时间。优秀的AI工具生成的论文非常完备,能提供摘要、参考文献、致谢等材料参考,而且还查重率低,在5%左右。总体来......
  • AI与学术写作:如何平衡便利性与原创性
    告诉大家一个非常残忍的答案,以后所有论文都会被查ai的。在考虑使用AI撰写学术论文的便捷性时,你可能会问:学术界难道没有预见到这种行为吗?答案是肯定的。学术界不仅关注传统的抄袭问题,还针对AI生成内容(AIGC)增加了一项名为“AIGC检测”的指标。这一检测的目的,正是为了识别和惩处......
  • 逃离AI陷阱:如何使用AI写论文工具提升学术写作
    在学术探索的征途中,AI论文工具本应是助力前行的风帆,而非让人陷入困境的漩涡。我完全理解大家在面对论文压力的同时,遭遇不靠谱AI工具的沮丧与无奈。毕竟,时间可以被浪费,但金钱和信任却不可轻弃。作为一名资深的AI工具探索者,我在此分享一些经过我亲自验证、值得信赖的AI论文辅助......
  • AI写论文靠谱吗?探索自动化文本生成的可靠性
    众所周知,写论文是一项极其耗时间的事情,从开始的选题到文献资料搜索查阅,大纲整理等等一大堆的繁杂工作是极艰辛的。用AI写论文就不一样了,自动化生成文本为你节省了大量时间。优秀的AI工具生成的论文非常完备,能提供摘要、参考文献、致谢等材料参考,而且还查重率低,在5%左右。总体来......