首页 > 其他分享 >超异构计算技术趋势分析

超异构计算技术趋势分析

时间:2023-02-02 04:44:05浏览次数:59  
标签:分析 异构 架构 异构计算 趋势 计算 算力 CPU

超异构计算技术趋势分析

异构计算:迈向智能计算世界

趋势一:ARM成为多样性计算的重要选择

随着自动驾驶、云游戏、VR/AR等应用的兴起,以及物联网、移动应用、短视频、个人娱乐、人工智能的爆炸式增长,应用越来越多样化;应用的多样化驱动算力多样性发展。海量多样性的算力需求,加速了算力格局转换,ARM算力从嵌入式场景快速延伸至服务器场景。同时,在中国,服务器侧ARM生态已逐步成熟,并全面应用于国计民生行业。建议企业基于业务需求,识别适合ARM架构的业务场景,主动规划部署ARM架构服务器;有节奏地开展现有应用适配、迁移,并基于ARM架构,持续开发原生应用;通过全栈软硬件优化,充分释放多样算力,发挥极致性能。

趋势二:数字化走向深入,操作系统走向多样性算力和全场景的协同

操作系统作为计算产业中最基础的软件,承担着抽象底层硬件,向上层应用提供统一接口的核心功能,是计算产业的关键环节。面向多样性计算和海量应用场景,操作系统应支持多样算力和多种应用的协同,成为数字产业的可靠软件底座。建议规划部署支持数字基础设施多样算力的操作系统,使能全场景应用协同创新;分析应用迁移策略,制定应用迁移计划,完成应用高效迁移;加入开源操作系统社区,积极拥抱开源、回馈开源。

趋势三:数字经济发展引发算力需求爆炸式增长,人工智能算力增长是主要增量

当前,数字经济正在成为全球经济的主要增长点,算力作为数字经济时代新的生产力,是支撑数字经济发展的坚实基础,其中人工智能算力需求一直是指数级增长。同时,人工智能正日益快速渗透行业应用的核心场景。建议产业加速AI基础设施建设,让AI算力成为像水和电一样的公共资源;加速人工智能进入行业关键场景,使能行业智能化升级;产学研携手,共筑人工智能产业生态。

趋势四:大模型成为AI规模应用重要途径,科学计算正在进入科学智能新阶段

当前人工智能领域,“大算力+大数据”正在催生大模型的快速发展,孵化系列行业新应用。而科学计算是继大模型之后,AI发展的另一重要方向,科学计算正在从传统HPC进入科学智能新阶段。建议产学研各界汇聚大模型发展要素,使能大模型从规划到落地;打造科学智能基础平台、携手构筑科学智能生态,加速产业闭环。

趋势五:绿色高效成为算力基础设施建设的关键诉求

在双碳目标下,算力基础设施的建设更加注重能耗,需要通过从单领域创新走向系统级创新,实现绿色高效。建议建设模式从传统的部件堆叠逐步走向集群全栈一体化;散热方式逐步从传统风冷走向风液混合或全液冷;算力评估逐步从面向硬件的裸算力,走向面向业务的有效算力。

趋势六:算力网络将成为重要的算力供给方式

在“东数西算”“网络强国”等战略的牵引下,以人工智能计算中心、超算中心、一体化大数据中心等为代表的算力基础设施,成为国家新基建的重要组成,算力建设从分散化走向集约化。随着各地算力中心/算力基础设施陆续建成后,人工智能算力从算力中心,走向算力网络。建议各地加速算力基础设施建设;积极加入中国算力网,实现算力汇聚共享。

预计,到2030年,全球通用计算算力相 比2020年将增长10倍,AI算力将增长500倍。计算从通用计算进入通用计算+AI计算的多样性计算时代。

算力需求无止境,超异构计算走向台前

算力爆炸的时代,复杂计算充满挑战,对硬件灵活可编程性要求也越来越高。计算架构走到异构的今天,矛盾也凸显——单一处理器无法兼顾性能和灵活性。

而超大规模计算集群和复杂系统让超异构计算成为了可能,何出此言?超异构计算又到底是什么?从芯片龙头企业的产品布局上我们能发现什么?传统的计算架构发展又遭遇哪些瓶颈?
在12月6日芯智库【相约芯期二】第27期的“汽车芯片智能驾舱在线研讨会”上,上海矩向科技CEO黄朝波带来主题为“从英伟达 Thor,看大芯片发展趋势”的演讲。
以下是黄朝波的分享:
我给大家分享的是“从英伟达Thor,看大芯片的发展趋势”,当然它有更专业点的名字叫“超异构计算,新一代计算架构”。
我的介绍大概分为5个部分,第一部分对一些没有计算机相关基础的读者做一些基本的介绍;第二部分探讨下计算架构面临的挑战;第三部分就是介绍超异构相关的趋势案例,里面主要包含了英伟达和高通的案例;第四部分讨论下为什么现在会出现这个概念,而不是过去或者以后;最后部分介绍下我们认为未来会出现单芯片的整体解决方案,也就是我们称之为超异构处理器。
01  算力提升不仅是芯片 
先简单介绍下冯·诺依曼架构。我们一切系统的运行是可以归一到计算的,计算系统是由输入、计算和输出三部分组成,这个架构就是冯·诺依曼架构,非常的简单。现在行业内有很多号称打破冯·诺依曼架构的系统,但背后逻辑都是遵照冯·诺依曼架构的指导思想,严格来说不存在打破的说法。

 

 然后是摩尔定律。基于CPU的摩尔定律真的已经到了极限,虽然说我们现在晶体管的提升也是慢慢到了一个极限,但是如果我们把摩尔定律当做一个KPI的话,那么对行业来说它又是一个非常重要的路线图,大家需要持续不断地提升性能,所以说对于计算性能的追求其实是永无止境的。

另外,再简单介绍下软件和硬件。首先,指令是软件和硬件之间的媒介,那么指令的复杂度决定了这个软硬件的解耦程度。ISA(指令集架构)之下,CPU、GPU等各种处理器是硬件;ISA之上,各种程序、数据集、文件等是软件。

 

 按照指令的复杂度,典型的处理器平台大致分为CPU、协处理器、GPU、FPGA、DSA、ASIC。从左往右,单位计算越来越复杂,性能越来越好,而灵活性越来越低。任务在CPU运行,则定义为软件运行;任务在协处理器、GPU、FPGA、DSA或ASIC运行,则定义为硬件加速运行。

我们现在是一个万物互联的时代,从云端的集中式超大规模服务器,然后到边缘端的小规模数据中心,再到终端的各种丰富多彩的设备,那么整个万物互联大概来说就分为这三个层次。
通常来说,终端是归于我们现实世界的一个接入层,它是整个大系统的一个I/O,然后负责现实世界和虚拟世界的交互,那么云端是最终任务的处理,边缘端通常来说是作为云端的一个代理,为终端去提供服务的,因此我们可以根据云边端将计算节点分类。
终端我们把它分为四类:IoT节点、IoT设备、智能终端、超级终端。云端分为三类:服务器、服务、用户业务运行环境。边缘分为两类:代理运行平台、近云端及近终端运行环境。

 

 我们最终要宏观地去提升这些设备共同的算力,不能简单地只提升一个设备的性能,那是没有意义的。因为每一个设备如果只是一个孤岛的话,这些东西没法连成一个大的资源池是没有意义的,所以基于此,我们把这些统一起来,我们把微观层次作为单芯片性能,宏观层次就是整体的算力利用率。

 

 这样的话,想提升算力,它仅仅是提升芯片的性能肯定是不够的,那就需要各方面全方位的优化。我们可以简单地把它作为一个公式,实际总算力与单芯片性能、数量、利用率相关,特别是后面两个参数,我们做芯片的可能不太关注,但这两块的作用又很关键。

02  计算架构面临的挑战 
计算架构最开始是单核处理器,然后走向了多核,计算从串行走向了并行。
再往后走,我们从同构并行到了异构并行,异构并行通常分为三类:基于GPU、基于FPGA、基于DSA。
这些异构并行都需要外挂一个CPU来控制,所以本质上异构并行就是CPU+XPU的形态,像最典型的就是GPU服务器。GPU并行计算性能效率比CPU高,并且场景覆盖较多,CUDA生态成熟。但性能效率比ASIC/DSA仍有很大差距;对一些轻量级异构加速场景,独立GPU显得太重。
复杂计算,通俗易懂的讲,就是需要支持虚拟化,支持多租户多系统运行的这些计算场景。在云计算、边缘计算以及一些超级终端的复杂计算场景,对灵活性的要求远高于对性能的要求。
也就是说通常情况下,如果CPU能够满足性能要求,大家一定是不希望用各种加速器。但对算力的需求不断增加,有时候不得不通过各种异构加速方式进行性能优化。实践证明,在复杂计算场景,提升性能的同时,不能损失通用灵活性。
最后我们总结一下异构计算存在的问题。系统越复杂,需要选择越灵活的处理器;性能挑战越大,需要选择越偏向定制的加速处理器。
本质矛盾是:单一处理器无法兼顾性能和灵活性;即使我们拼尽全力平衡,也只“治标不治本”。
CPU+XPU异构计算中的XPU,决定了整个系统的性能/灵活性特征。GPU灵活性较好,但性能效率不够极致;DSA性能好,但灵活性差,难以适应复杂计算场景对灵活性的要求;FPGA功耗和成本高,需要一些定制开发,落地案例不多;ASIC功能完全固定,难以适应灵活多变的复杂计算场景。
这就是目前的一个现状。还有另外一个原因就在于计算孤岛的问题。异构计算面向某个领域或场景,领域之间的交互困难。服务器物理空间有限,无法多个物理加速卡,需要把这些加速方案整合。整合,不是简单的拼凑,而是要架构重构。

 

 此外,我们所说的云网边端融合也面临着挑战。云网边端,算力需求不断提高,系统复杂度不断提高,对硬件的灵活可编程性要求也越来越高。微服务可自适应地在云、网、边、端运行,需要云数据中心内部,以及跨云边端的硬件平台一致性。需要芯片、系统、框架和库、以及上层应用的多方协同。

03 什么是超异构计算?
那么下一步,我们认为是持续往前走向超异构,为什么这件事情能够存在?
我们认为有几个原因使得超异构成为可能。那么首先一点就是超大规模的计算集群,其次是复杂宏系统,是由分层分块的组件(系统)组成。单服务器的宏系统复杂度,以及超大规模的云和边缘计算,使得“二八定律”在系统中普遍存在:把相对确定的任务沉淀到基础设施层,相对弹性的沉淀到弹性加速部分,其他继续放在CPU(CPU兜底)。

 

 把更多的异构计算整合重构,各类型处理器间充分的、灵活的数据交互,形成超异构计算。未来就会有三个和三个以上类型的处理引擎,共同组成超异构并行。

接下来我们介绍一些案例,首先是英特尔提出的超异构相关概念。当它提出来之后,并没有给出来完整的一个产品,反而是在超异构概念周边做了很多工作,最终我觉得会有很完整的东西出来。
2019年,英特尔提出超异构计算相关概念:XPU是架构组合,包括CPU、GPU、FPGA 和其他加速器;OneAPI是开源的跨平台编程框架,底层是不同的XPU处理器,通过OneAPI提供一致性编程接口,使得应用跨平台复用。
就是说我任何一个应用,我既可以在CPU运行,又可以在GPU运行,又可以在专用的ASIC上运行,通过OneAPI就可以跨不同的处理器平台,就可以自适应的去在平台上也有不同的计算资源。
再说说英特尔的IPU,英特尔IPU跟现在市面上比较火爆的DPU是一个概念。

 

 我们对英特尔的超异构计算进行一个总结,那它有CPU、GPU、FGPA,以及DSA和ASIC所组成的IPU,并且有了这个跨平台,也就是它所谓的XPU战略和oneAPI框架,最终把它整合成一个大芯片,

 

 (上图为Atlan架构示意图,Atlan和Thor同架构)

我们再来看英伟达Thor,这里很关键,为什么是数据中心架构?它所使用CPU、GPU、DPU跟数据中心里面用的架构一模一样,区别仅仅在于规格的不同,比方说数据中心可能有50个核,在终端可能用到30个核。
超级终端与传统终端最大的区别在于:支持虚拟化,支持多系统运行,支持微服务。手机、平板、个人电脑等传统AP是一个系统:部署好OS,上面运行各种应用,软件附属于硬件而存在。自动驾驶等超级终端,需要通过虚拟化将硬件切分成不同规格,供不同形态的多个系统运行,并且各个系统之间需要做到环境、应用、数据、性能、故障、安全等方面的隔离。
再然后看一下英伟达在数据中心的布局,NVIDIA Grace Hopper超级芯片是CPU+GPU,NVIDIA计划从Bluefield DPU四代起,把DPU和GPU两者集成单芯片。Chiplet技术逐渐成熟,未来趋势是CPU+GPU+DPU的超异构芯片。
为什么显而易见?这里面有英伟达自己的一个说法,我把这个进行了一个总结。首先,计算和网络不断融合:计算面临很多挑战,需要网络的协同;网络设备也是计算机,加入计算集群,成为计算的一部分。

 

 数据在网络中流动,计算节点依靠数据流动来驱动计算。所有系统的本质是数据处理,那么所有的设备就都是DPU。以DPU为基础,不断融合CPU和GPU的功能,DPU会逐渐演化成数据中心统一的超异构处理器。

 

 我们再来看高通。高通在手机端是很厉害的存在,往汽车域控制上发展也会有先天优势,但如果以最终的超级单芯片来讲,相对于英伟达还是有点劣势的。

04 如何驾驭超异构计算?
接下来讨论下,为什么现在才提超异构这个概念。这里面其实有很多原因,我们总结了大概4个部分,第一个首先是业务需求驱动,现在软件新应用层出不穷,两年一个新热点;并且,已有的热点技术仍在快速演进。

 

 第二点,元宇宙是继互联网和移动互联网之后的下一个互联网形态,元宇宙需要源源不断的“算力能源”。要想实现元宇宙级别的体验,需将算力提升1000倍。受限于算力瓶颈,许多元宇宙的美好设想难以落地:沉浸感所需的16K效果,需要280.7Gbps带宽。目前的算力基础设施,还难以达到这么高数据量的传输、处理和存储;宏观AI算力需要数量级提升:①支撑单个数字人的AI算力需求急速增长;②元宇宙快速发展,数字人的数量猛增。

第三点,就是工艺在进步,那么这里有一个非常有优势的技术。Chiplet使得在单芯片层次,可以构建规模数量级提升的超大系统。系统越大,超异构的优势越明显。
第四点,异构编程很难,超异构编程更是难上加难。该如何更好的驾驭超异构?我们给出的解决方案是软硬件融合。软硬件融合从以下几个方面入手:
性能和灵活性。单引擎平衡,多引擎兼顾。可编程及易用性。利用系统的特征,软件无缝卸载,实现“软件定义一切,硬件加速一切”。产品的弹性。满足用户需求,还需要满足不同用户差异化的需求,以及用户需求的快速迭代。
通过软硬件融合,实现大芯片的通用性(灵活性、可编程性、易用性以及弹性等特征的集合):覆盖更多的用户、更多的场景和更长期的迭代;适配复杂宏系统的快速变化;实现芯片的大规模落地。
05  超异构计算的未来 
最后我们介绍一下,最终落地的到底是个什么东西?
在这里我们需要说一下,图灵奖获得者John H.和David P. 2017年提出“计算机体系结构的黄金年代”,给出的解决方案是特定领域架构DSA。

 

 我们认为,DSA架构分离的趋势导致平台和生态碎片化,未来正确的趋势应该是从分离再回到融合。

 

 也就是将目前CPU、GPU、DPU进行整合,我们把它叫做GP-HPU,那么可能大家就会有一个疑问,这不就是SOC吗?

 

 它的确是把整个系统放到了一个基本面上,但是他跟我们传统的SOC有很多不同。

 最后展望一下,超异构更加广泛的应用领域。

 

 那么通常来说一开始做的相对小一些,它用在边缘是比较合适的,但随着扩展,那么未来用在这个数据中心里面,或者自动驾驶上。跨云网边端融合,需要计算架构的统一。通用HPU优势:更多功能复用,更多场景覆盖,跨平台架构统一。

 

参考文献了解

https://mp.weixin.qq.com/s/WefTfKOl5ncp2iwnClDtkQ

https://mp.weixin.qq.com/s/4oFIXekSP5lLWndO7TkZcA

标签:分析,异构,架构,异构计算,趋势,计算,算力,CPU
From: https://www.cnblogs.com/wujianming-110117/p/17084671.html

相关文章