科技云报道原创。
英伟达是当之无愧的“AI算力王者”,A100、H100系列芯片占据金字塔顶尖位置,是ChatGPT这样的大型语言模型背后的动力来源。
但面对英伟达的独霸天下,科技巨头们都纷纷下场自研AI芯片。
10月6日,媒体援引知情人士消息称,微软计划在下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。
同一天,据媒体消息显示,ChatGPT开发商OpenAI也正在探索AI芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的研发。
事实上,不仅是微软、OpenAI试图自研AI芯片,AWS、谷歌、Meta等科技巨头都已下场自研。
在酝酿数年后,这是否意味着英伟达的独霸时代即将结束?
巨头纷纷自研AI芯片
目前,包括谷歌、AWS、阿里巴巴、百度、华为等国内外云服务大厂都已有自研 AI 芯片用于数据中心,微软和Meta也有相关计划。所以对于头部的AI技术大厂来说,自研AI芯片已经是一大趋势。
微软早就自研芯片
作为全球头部云厂商,微软Azure需要大量AI处理器。尤其是和OpenAI合作以后,有消息称微软至少订购了数十万颗英伟达芯片。
因此,这几年微软在芯片研发上加快了进程,先是建立由前英特尔高管Rani Borkar领导的芯片部门;后又各处招兵买马,其中就包括前苹果芯片架构师Filippo;此外还和AMD展开了密切合作。
自2019年以来,微软就开始研发一款名为"雅典娜"(Athena)的定制AI芯片,用于为大型语言模型提供动力,目前已在测试阶段。
Athena的首个目标是为OpenAI提供算力引擎,以替代昂贵的英伟达A100/H100。如果明年大规模推出,Athena将允许微软内部和OpenAI的团队同时训练和推理模型。
SemiAnalysis的分析师迪伦·帕特尔(Dylan Patel)表示,开发类似于雅典娜的芯片可能每年需要花费1亿美元左右,ChatGPT每天的运营成本约70万美元,大部分成本来源于昂贵的服务器,如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本将可以降低三分之一。
有知情人爆料,微软在芯片研发上已砸入了近20亿美元。
OpenAI计划收购
据媒体消息称,OpenAI也正在探索制造自研人工智能芯片,并已开始评估潜在的收购目标。
报道称,至少从去年开始,OpenAI就已讨论各种方案,以解决AI芯片短缺问题。
OpenAI已将获取更多AI芯片列为公司首要任务,讨论方案包括自研AI芯片,与包括英伟达在内的其他芯片制造商更密切地合作,以及在英伟达之外实现供应商多元化。
谷歌最早自研TPU芯片
早在2013年,谷歌就已秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云计算数据中心中,以取代英伟达的GPU。
2016年5月,这款自研芯片公诸于世,即TPU。TPU可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型,其最初专为谷歌的超级业务云计算数据中心而生。
2020年,谷歌实际上已在其数据中心部署了人工智能芯片TPU v4。
AWS推出训练和推理芯片
从2013年推出首颗Nitro1芯片至今,AWS是最先涉足自研芯片的云厂商,已拥有网络芯片、服务器芯片、人工智能机器学习自研芯片3条产品线。
2018年初,科技媒体Information爆料亚马逊已经开始设计定制AI芯片。
AWS自研AI芯片版图包括推理芯片Inferentia和训练芯片Trainium。2018年底,AWS推出自研AI推理芯片Inferentia,可以以低成本在云端运行图像识别、语音识别、自然语言处理、个性化和欺诈检测等大规模机器学习推理应用程序。
2020年底,AWS推出专用于训练机器学习模型的Trainium。
2023年初,专为人工智能打造的Inferentia 2发布。Inf2实例最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。
在AWS、微软和谷歌这三家中,亚马逊是唯一一家在服务器中提供两种类型芯片(标准计算芯片和用于训练与运行机器学习模型的专用芯片)的云提供商,其在2015年收购以色列芯片设计公司Annapurna Labs为这些努力奠定了基础。
Meta基于RISC-V开源架构自研
直到2022年,Meta Platforms还主要使用CPU和专为加速AI算法而设计的定制芯片组合来运行其AI工作负载。
后来,Meta取消了于2022年大规模推出定制芯片的计划,转而订购了价值数十亿美元的英伟达GPU。
如今为了扭转局面,Meta已经在开发内部芯片,并于5月19日公布了AI训练与推理芯片项目。
据介绍,MTIA芯片的功耗仅为25瓦,占英伟达等市场领先供应商芯片功耗的一小部分,并使用了RISC-V(第五代精简指令处理器)开源架构。
值得注意的是,Meta于5月初收购了英国AI芯片独角兽Graphcore的AI网络技术团队,为其自研AI芯片奠定了基础。
英伟达能否被撼动?
埃森哲公司报告指出,如今技术行业的AI渗透度明显高出其他行业,而未来企业的成长潜力取决于其能在多大程度上应用生成式AI。更关键的是,熟练运用新技术也将成为国家发展的关键。
如今,AI技术在数据中心、智能汽车、游戏等的应用落地方面取得了丰硕的成果,要实现AI大规模应用,背后必定要有大量AI芯片的算力支持。
数据显示,英伟达的GPU是全球应用最为广泛的 AI 芯片。
英伟达独立GPU市场份额达80%,在高端GPU市场份额高达90%。2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成是由英伟达芯片驱动的。
显而易见,英伟达已经垄断了全球算力。
随着AWS、谷歌、微软等巨头加入自研AI芯片的道路,英伟达的垄断地位是否能被撼动呢?
首先,芯片设计技术非常复杂。
高算力芯片的首要挑战就是其复杂度,从芯片设计角度,高性能计算芯片中的计算单元、存储访问以及芯片间的互联都是需要仔细考虑。
英伟达之所以引领GPU创新,源于其架构底座不断迭代,从2008年的Tesla架构到2020年的Ampere架构,每一次都是对硬件的升级与改进。代际之间产品性能提升显著,性能和市场份额均领先全球。
其次,不可一世的CUDA生态。
比造芯更难的是搭建生态,全球GPU生态都来自CUDA。
CUDA,是英伟达2006年推出的通用并行计算架构生态,使GPU能够解决复杂的计算问题。
毋庸置疑,CUDA是迄今为止最发达、最广泛的生态系统,也是深度学习库最有力的支持。
虽然有PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,但无法撼动CUDA的统治地位。
随着人工智能领域的蓬勃发展,GPU和CUDA被从业者视为标配,使用GPU做加速计算已成为行业主流。虽然英伟达GPU本身硬件平台的算力卓越,但其强大的CUDA软件生态才是推升GPU计算生态普及的关键力量。
当前CUDA 广泛功能已与英伟达GPU硬件深度耦合,开发者早已熟悉其专有的编程语言CUDA,用于制作GPU驱动的应用程序。
如果换到其他厂商的定制芯片,就需要学习全新的软件语言了,如何说服开发者使用这些AI芯片呢?
最后,芯片的具体生产也是一个挑战。
如何确保芯片生产的良率,以及如何在高级封装和先进工艺节点产能仍然有可能紧张的几年内,获得足够的产能以量产,也是各大巨头需要解决的问题。
总体而言,想要撼动英伟达的垄断地位,并不是一朝一夕的事。各大科技巨头要想在AI算力芯片上突围,就必须在底座、专利、核心技术、人才建设、生态建设等各方面下大功夫。
【关于科技云报道】
专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。
标签:伟达,自研,AI,OpenAI,芯片,GPU From: https://blog.51cto.com/u_16125291/7810645