首页 > 其他分享 >科技云报道:不堪忍受英伟达霸权,微软、OpenAI纷纷自研AI芯片

科技云报道:不堪忍受英伟达霸权,微软、OpenAI纷纷自研AI芯片

时间:2023-10-11 15:05:05浏览次数:43  
标签:伟达 自研 AI OpenAI 芯片 GPU

科技云报道原创。

英伟达是当之无愧的“AI算力王者”,A100、H100系列芯片占据金字塔顶尖位置,是ChatGPT这样的大型语言模型背后的动力来源。

但面对英伟达的独霸天下,科技巨头们都纷纷下场自研AI芯片。

10月6日,媒体援引知情人士消息称,微软计划在下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减少对英伟达的依赖。

同一天,据媒体消息显示,ChatGPT开发商OpenAI也正在探索AI芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的研发。

科技云报道:不堪忍受英伟达霸权,微软、OpenAI纷纷自研AI芯片_英伟达

事实上,不仅是微软、OpenAI试图自研AI芯片,AWS、谷歌、Meta等科技巨头都已下场自研。

在酝酿数年后,这是否意味着英伟达的独霸时代即将结束?

巨头纷纷自研AI芯片

目前,包括谷歌、AWS、阿里巴巴、百度、华为等国内外云服务大厂都已有自研 AI 芯片用于数据中心,微软和Meta也有相关计划。所以对于头部的AI技术大厂来说,自研AI芯片已经是一大趋势。

微软早就自研芯片

作为全球头部云厂商,微软Azure需要大量AI处理器。尤其是和OpenAI合作以后,有消息称微软至少订购了数十万颗英伟达芯片。

因此,这几年微软在芯片研发上加快了进程,先是建立由前英特尔高管Rani Borkar领导的芯片部门;后又各处招兵买马,其中就包括前苹果芯片架构师Filippo;此外还和AMD展开了密切合作。

自2019年以来,微软就开始研发一款名为"雅典娜"(Athena)的定制AI芯片,用于为大型语言模型提供动力,目前已在测试阶段。

Athena的首个目标是为OpenAI提供算力引擎,以替代昂贵的英伟达A100/H100。如果明年大规模推出,Athena将允许微软内部和OpenAI的团队同时训练和推理模型。

SemiAnalysis的分析师迪伦·帕特尔(Dylan Patel)表示,开发类似于雅典娜的芯片可能每年需要花费1亿美元左右,ChatGPT每天的运营成本约70万美元,大部分成本来源于昂贵的服务器,如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本将可以降低三分之一。

有知情人爆料,微软在芯片研发上已砸入了近20亿美元。

OpenAI计划收购

据媒体消息称,OpenAI也正在探索制造自研人工智能芯片,并已开始评估潜在的收购目标。

报道称,至少从去年开始,OpenAI就已讨论各种方案,以解决AI芯片短缺问题。

OpenAI已将获取更多AI芯片列为公司首要任务,讨论方案包括自研AI芯片,与包括英伟达在内的其他芯片制造商更密切地合作,以及在英伟达之外实现供应商多元化。

谷歌最早自研TPU芯片

早在2013年,谷歌就已秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云计算数据中心中,以取代英伟达的GPU。

2016年5月,这款自研芯片公诸于世,即TPU。TPU可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型,其最初专为谷歌的超级业务云计算数据中心而生。

2020年,谷歌实际上已在其数据中心部署了人工智能芯片TPU v4。

AWS推出训练和推理芯片

从2013年推出首颗Nitro1芯片至今,AWS是最先涉足自研芯片的云厂商,已拥有网络芯片、服务器芯片、人工智能机器学习自研芯片3条产品线。

2018年初,科技媒体Information爆料亚马逊已经开始设计定制AI芯片。

AWS自研AI芯片版图包括推理芯片Inferentia和训练芯片Trainium。2018年底,AWS推出自研AI推理芯片Inferentia,可以以低成本在云端运行图像识别、语音识别、自然语言处理、个性化和欺诈检测等大规模机器学习推理应用程序。

2020年底,AWS推出专用于训练机器学习模型的Trainium。

2023年初,专为人工智能打造的Inferentia 2发布。Inf2实例最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。

在AWS、微软和谷歌这三家中,亚马逊是唯一一家在服务器中提供两种类型芯片(标准计算芯片和用于训练与运行机器学习模型的专用芯片)的云提供商,其在2015年收购以色列芯片设计公司Annapurna Labs为这些努力奠定了基础。

Meta基于RISC-V开源架构自研

直到2022年,Meta Platforms还主要使用CPU和专为加速AI算法而设计的定制芯片组合来运行其AI工作负载。

后来,Meta取消了于2022年大规模推出定制芯片的计划,转而订购了价值数十亿美元的英伟达GPU。

如今为了扭转局面,Meta已经在开发内部芯片,并于5月19日公布了AI训练与推理芯片项目。

据介绍,MTIA芯片的功耗仅为25瓦,占英伟达等市场领先供应商芯片功耗的一小部分,并使用了RISC-V(第五代精简指令处理器)开源架构。

值得注意的是,Meta于5月初收购了英国AI芯片独角兽Graphcore的AI网络技术团队,为其自研AI芯片奠定了基础。

英伟达能否被撼动?

埃森哲公司报告指出,如今技术行业的AI渗透度明显高出其他行业,而未来企业的成长潜力取决于其能在多大程度上应用生成式AI。更关键的是,熟练运用新技术也将成为国家发展的关键。

如今,AI技术在数据中心、智能汽车、游戏等的应用落地方面取得了丰硕的成果,要实现AI大规模应用,背后必定要有大量AI芯片的算力支持。

数据显示,英伟达的GPU是全球应用最为广泛的 AI 芯片。

英伟达独立GPU市场份额达80%,在高端GPU市场份额高达90%。2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成是由英伟达芯片驱动的。

显而易见,英伟达已经垄断了全球算力。

随着AWS、谷歌、微软等巨头加入自研AI芯片的道路,英伟达的垄断地位是否能被撼动呢?

首先,芯片设计技术非常复杂。

高算力芯片的首要挑战就是其复杂度,从芯片设计角度,高性能计算芯片中的计算单元、存储访问以及芯片间的互联都是需要仔细考虑。

英伟达之所以引领GPU创新,源于其架构底座不断迭代,从2008年的Tesla架构到2020年的Ampere架构,每一次都是对硬件的升级与改进。代际之间产品性能提升显著,性能和市场份额均领先全球。

其次,不可一世的CUDA生态。

比造芯更难的是搭建生态,全球GPU生态都来自CUDA。

CUDA,是英伟达2006年推出的通用并行计算架构生态,使GPU能够解决复杂的计算问题。

毋庸置疑,CUDA是迄今为止最发达、最广泛的生态系统,也是深度学习库最有力的支持。

虽然有PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,但无法撼动CUDA的统治地位。

随着人工智能领域的蓬勃发展,GPU和CUDA被从业者视为标配,使用GPU做加速计算已成为行业主流。虽然英伟达GPU本身硬件平台的算力卓越,但其强大的CUDA软件生态才是推升GPU计算生态普及的关键力量。

当前CUDA 广泛功能已与英伟达GPU硬件深度耦合,开发者早已熟悉其专有的编程语言CUDA,用于制作GPU驱动的应用程序。

如果换到其他厂商的定制芯片,就需要学习全新的软件语言了,如何说服开发者使用这些AI芯片呢?

最后,芯片的具体生产也是一个挑战。

如何确保芯片生产的良率,以及如何在高级封装和先进工艺节点产能仍然有可能紧张的几年内,获得足够的产能以量产,也是各大巨头需要解决的问题。

总体而言,想要撼动英伟达的垄断地位,并不是一朝一夕的事。各大科技巨头要想在AI算力芯片上突围,就必须在底座、专利、核心技术、人才建设、生态建设等各方面下大功夫。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

标签:伟达,自研,AI,OpenAI,芯片,GPU
From: https://blog.51cto.com/u_16125291/7810645

相关文章

  • ChatGPT 重磅更新可进行实时网络搜索;OpenAI 将构建新的“AI 硬件”丨RTE开发者日报 Vo
    开发者朋友们大家好:这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(RealTimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑的个人观点,欢迎大家留......
  • Soul创新自研NAWA引擎,展现社交元宇宙的未来图景
    当前数字经济蓬勃发展,元宇宙被看做是数字经济发展的加速器,社交则被认为是切入元宇宙的主要入口之一。2021年初,Soul在行业中首次提出构建“社交元宇宙”,并在底层技术、应用、生态构建等多层面进行创新实践,其中就包括自研NAWA引擎。通过自研的NAWA引擎,Soul不仅为用户带来了更具......
  • vivo亮相博鳌科创会 自研大模型即将发布
    2023年9月19日-21日,博鳌亚洲论坛国际科技与创新论坛第三届大会在广东珠海举行。长期以来,博鳌亚洲论坛与vivo保持着战略合作伙伴关系。今年3月,vivoXFold2系列手机荣膺博鳌亚洲论坛官方指定手机。在本次会议中,vivo执行副总裁、首席运营官、vivo中央研究院院长胡柏山,vivo副总裁、OS......
  • OpenAI原生GPT问答记录直接导入博客方法
    OpenAI原生GPT问答记录直接导入博客方法一般常见的方法是截图放在博客,但是这种方法有点过于粗糙,浪费阅读者流量资源不说,还显得十分不专业。但是对于原生GPT来说,在网页内全选复制并不能达成我们想要的效果,甚至有时候很难区分哪些是用户哪些是AI的话。于是本篇文章应运而生,Openai......
  • 人工智能AI界的龙头企业,炸裂的“英伟达”时代能走多远
    原创|文BFT机器人1、AI芯片的竞争格局已趋白热化尽管各类具有不同功能和定位的AI芯片在一定程度上可实现互补,但同时也在机遇与挑战并存中持续调整定位。在AI训练端,英伟达的GPU凭着高算力的门槛,一直都是训练端的首选。只有少数芯片能与他匹敌,如谷歌的TPU(从2017年开始已具备训练......
  • OpenAI: 如何合并多个mp4视频
    1.确保你已经安装了FFmpeg工具。你可以从官方网站(https://ffmpeg.org/)下载适合你操作系统的版本,或者使用包管理器进行安装。2.把要合并的MP4视频文件放入同一个文件夹中,以便于处理。3.在该文件夹中创建一个文本文件,例如命名为input.txt,用来列出所有要合并的视频文件的路径。......
  • 被逼出来的自主可控,从华为自研看国产 IDE 的未来和商业模式
    华为的自研 IDE 之路我所在的部门“华为云 PaaS 服务产品部”在软件开发工具领域肩负着两大使命:一是为华为内部各产业开发者提供软件开发工具,提升开发效率;二是以华为云为承载平台,将华为内部优秀的软件工程工具和研发实践服务于广大外部开发者。纵观华为公司的 IDE 发展历程,大......
  • 喜讯!极限科技再次中标中国移动云 Elasticsearch 自研版技术开发服务项目!
    喜讯!极限科技再次中标中国移动云Elasticsearch自研版技术开发服务项目!近日,极限科技再次成功中标中国移动苏州研发中心《云能力中心2023—2024年移动云Elasticsearch自研版技术开发服务项目》。实现了个性化搜索及聚合分析,更稳定可靠地支持万亿级数据规模,为移动云系统提供......
  • 喜讯!极限科技再次中标中国移动云 Elasticsearch 自研版技术开发服务项目!
    喜讯!极限科技再次中标中国移动云Elasticsearch自研版技术开发服务项目!近日,极限科技再次成功中标中国移动苏州研发中心《云能力中心2023—2024年移动云Elasticsearch自研版技术开发服务项目》。实现了个性化搜索及聚合分析,更稳定可靠地支持万亿级数据规模,为移动云系统提......
  • 为什么 OpenAI 的 API 对于非英语语言来说更昂贵
    短语“Helloworld”怎么可能有两个英语令牌和12个印地语令牌?在我最近发表了一篇关于如何估算OpenAI的API成本的文章后,我收到了一条有趣的评论,有人注意到OpenAIAPI在其他语言中比在英语中贵得多,例如使用中文,日语或韩语(CJK)字符的语言。一位读者对我最近关于如何使用库估算Ope......