MCU与GPU技术分析
车规MCU知识梳理
一辆传统燃油车需要大约500到600颗芯片,轻混汽车大约需要1000颗,插电混动和纯电动汽车则需要至少2000颗芯片。这意味着,随着智能电动汽车的飞速发展,不但先进制程的芯片需求量越来越大,传统芯片的需求量也将继续提升。MCU就是这样,除了单车搭载的数量在不断增长,域控制器也带来了对高安全、高可靠、高算力MCU的新需求增长。
MCU,Microcontroller Unit,中文称单片微型计算机/微控制器/单片机,将CPU、存储器、外围功能整合在单一芯片上,形成具有控制功能的芯片级计算机,主要用于实现信号处理和控制,是智能控制系统的核心。
MCU与我们的生活工作息息相关,如汽车电子、工业、计算机与网络、消费电子、家电、物联网等,其中汽车电子是最大的市场,从全球角度看占比达到了33%。
MCU结构
MCU主要由中央处理器CPU、存储器(ROM和RAM)、输入输出I/O接口、串行口、计数器等构成。
CPU:Central Processing Unit,中央处理器,是 MCU 内部的核心部件,运算部件能完成数据的算术逻辑运算、位变量处理和数据传送操作,控制部件则按照一定时序协调工作,分析并执行指令。
ROM:Read-Only Memory,是程序存储器,用来存放由制造厂家写好的程序,信息以非破坏方式读取,存储数据掉电后不消失,MCU按照事先编写好的程序执行。
RAM:Random Access Memory,是数据存储器,与 CPU 直接进行数据交换,掉电后该数据不能保持。在程序运行过程中可以随时写入、读出,通常作为操作系统或其他正在运行中程序的临时数据存储介质。
CPU和MCU的关系:
CPU是运算控制的核心。MCU除了CPU之外,还包含ROM或RAM等,是芯片级芯片。常见的还有SoC(System on Chip),中文称片上系统,是系统级芯片,可存放并运行系统级别的代码,运行QNX、Linux 等操作系统,包含多个处理器单元(CPU+GPU+DSP+NPU+存储+接口单元)。
MCU的位数
位数是指MCU每次处理数据的宽度,位数越高意味着MCU数据处理能力就越强,目前最主要的是8、16、32位三种,其中32位占比最多且增长迅速。
NXP的S32汽车处理器平台。(来源:NXP)
在汽车电子应用中,8位MCU成本低、便于开发,目前主要应用在相对简单的控制领域,如照明、雨刷、车窗、座椅和车门等车身域控制。而对于相对复杂的领域,如仪表显示、车载娱乐信息系统、动力控制系统、底盘、驾驶辅助系统等,则以32位的为主,且随着汽车电动化、智能化、网联化的迭代进化,对MCU的运算能力要求也越来越高。
位数 |
车相关板块 |
时间 |
价格(美元) |
8位 |
低端控制功能:车体的各个次系统,如风扇控制、空调控制、雨刷、天窗、车窗升降、低阶仪表板、集线盒、座椅 控制、门控模块等低阶控制功能。 |
1980-1983年 |
<1 |
16位 |
中端控制功能:① 动力传动系统,如引擎控制、齿轮与离合器控制,和电子式涡轮系统等;② 底盘机构,如悬吊系统、电子式动力方向盘、扭力分散控制、电子帮辅、电子刹车等 |
1983-80年代末 |
1~5 |
32位 |
高端控制功能:L1/L2智能驾驶功能中扮演重要角色,如仪表盘控制、车身控制、多媒体信息系统、引擎控制,以及新兴的智能性和实时性的安全系统及动力系统(预碰撞、ACC、驾驶辅助系统、电子稳定程序、X-by-wire 等) |
1990年代至今 |
5~10部分>10 |
MCU车规认证
MCU供应商在进入OEM的供应链体系前,一般需要完成三大认证:设计阶段要遵循功能安全标准 ISO 26262,流片和封装阶段要遵循AEC-Q001~004和IATF16949,以及在认证测试阶段要遵循AEC-Q100/Q104。
其中,ISO 26262定义了ASIL四个安全等级,从低到高分别为A、B、C和D;AEC-Q100 分为四个可靠性等级,从低到高分别为 3、2、1和0。AEC-Q100 系列认证一般需要1-2年的时间,而ISO 26262的认证难度更大,周期更长。
MCU在智能电动汽车产业的应用
MCU在汽车产业中应用广泛,如前表,从车身附件、动力系统、底盘、车载信息娱乐到智能驾驶等板块都会用到。随着智能电动汽车时代的发展,MCU产品需求会越来越旺盛。
电动化:
1、电池管理系统BMS:BMS需要对充放电、温度、电池间均衡进行控制,主控板需要一颗MCU,每个从控板也需要一颗MCU;
2、整车控制器VCU:电动汽车能量管理需要增加一个整车控制器,同时需要配备32位高阶MCU,数量根据各厂的方案不同而不同;
3、引擎控制器/变速箱控制器:存量替换,电动汽车逆变器控制MCU替代油车的引擎控制器,由于电机转速较高,需要经过减速器减速,其配备的MCU控制芯片替换了油车的变速箱控制器。
智能化:
1、目前国内汽车市场还是处于L2高速渗透的阶段,基于综合成本和性能的考量,OEM新增ADAS功能仍沿用分布式架构,随着装载率的提升,处理传感器信息的MCU随之增加。
2、由于座舱功能日益增多,更高新能的芯片作用越来越重要,对应的MCU地位有所下降。
工艺制造
MCU本身对算力要求优先,对先进制程要求不高,同时其内置的嵌入式存储自身也限制了MCU制程的提升,因此当前车规MCU工艺节点主要是在40nm及以上的成熟制程,部分比较先进的车用MCU产品采用了28nm制程。车规芯片的规格主要是8英寸晶圆,部分厂商尤其IDM开始向12英寸平台迁移。
目前28nm和40nm工艺是市场主流。
国内外典型企业
相较于消费和工业级MCU,车规级MCU对运行环境、可靠性和供货周期的要求较高,此外车规级MCU认证门槛比较高,认证时间长、进入难度大,所以整体看MCU市场格局较为集中,2021年世界前五名的MCU企业占比就达82%之多。
序号 |
企业 |
国别 |
2021年销售额 (亿美元) |
2021年市场份额 |
1 |
NXP |
荷兰 |
37.95 |
18.8% |
2 |
微芯 |
美国 |
35.84 |
17.8% |
3 |
瑞萨 |
日本 |
34.2 |
17% |
4 |
ST |
意大利 |
33.74 |
16.7% |
5 |
英飞凌 |
德国 |
23.78 |
11.8% |
目前,中国车规级MCU还处在导入期,供应链本土化、国产替代化潜力巨大。
序号 |
企业 |
芯片 |
量产首款通过时间 |
1 |
比亚迪半导体 |
车规级触控MCU、车规级通用MCU及电池管理MCU |
2018年 |
2 |
杰发科技(四维图新子公司) |
ABS、BMS等核心功能、车身控制 |
2018年 |
3 |
芯海科技 |
车身电子、智能座舱 |
2020年 |
4 |
航顺芯片 |
汽车前装 |
2019年 |
5 |
芯旺微电子 |
汽车照明、车窗控制、空调面板 |
2019年 |
6 |
国芯科技 |
车载T-BOX安全单元、车载诊断系统安全单元、C-V2X通信安全应用 |
2019年 |
7 |
芯驰科技 |
汽车显示类应用 |
2019年 |
8 |
赛腾微电子 |
尾灯流水灯、车载无线充电、车窗控制 |
2019年 |
GPU面临挑战及应用场景解析
随着人工智能技术的成熟,利用人工智能替代自然人脑力劳动终将成为一个万亿美元的广阔市场,甚至会成为继互联网之后的下一个生产力革命。目前主流的人工智能软件算法是在神经网络(Neural Networks)技术基础上衍生的几个子类,如CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)等,这些算法的共性特征是都属于大规模并行计算任务。在人工智能技术发展的早期,多种并行计算芯片被应用于加速人工智能计算,如GPU/FPGA/神经网络专用芯片等。其中GPU作为一种相比其他选项较为成熟的产品,在现有的早期项目中广泛使用。谷歌在图像识别项目、特斯拉与沃尔沃在其辅助驾驶和自动驾驶项目中均使用GPU加速人工智能算法。Nvidia日前发布了2016年的一季报,其在数据中心和汽车的业务虽然体量较小,和PC游戏等相差数个数量级上,却增速非常高,达到了63%。Nvidia还针对数据中心云计算推出了Pascal运算平台以及Nvidia自主研发的人工智能算法。看似GPU已经在人工智能的加速计算中占主导地位;那么,未来人工智能的硬件加速也一定由GPU承担吗?事实并非如此,业内已经存在各种具备竞争力的替代解决方案。
一、谷歌全新人工智能专用协处理器:TPU
谷歌在2016年5月末召开的I/O大会披露了TPU(Tensor Processing Unit)专用处理器项目。这种处理器针对谷歌的开源人工智能软件编程框架Tensor Flow进行了优化。
1、TPU 主要思路:针对人工智能算法需求裁剪计算精度
在机器学习算法上,TPU比传统的加速方案(谷歌之前使用GPU加速方案)在能耗效率上提升一个数量级,相比传统解决方案领先7年(摩尔定律三代节点)。例如在GPU中,通常支持IEEE754-2008标准浮点数操作,这一浮点数字宽为32位,其中尾数字宽为23+1(使用隐藏尾数技术)位。如果数据通道中使用8位字宽的低精度尾数,则GPU中各个计算部件所需的晶体管和功耗均会大大减少。例如,在GPU计算核心中,面积最大,功耗最高的计算部件是ALU,ALU中最重要的部件是浮点MA(乘加混合)单元,现有技术下这一单元的延迟与尾数的字宽log2N成大致正比,而面积/功耗/晶体管数量大体上与N2log2N成正比。如果字宽由24比特减少到8比特,那么MA的面积可降至约1/14左右,约一个数量级。由图可知ALU占据了GPU芯片面积的很大比例,因此单单优化ALU即可获得足够提高。
除了降低字宽所带来的关键组件优化,GPU原有组件中针对图像处理的组件如光栅、材质贴图单元,均可以根据人工智能的计算需求选择优化或裁剪。对普通GPU进行深度定制处理,削减在神经网络算法不需要的数据位宽和功能即可达到谷歌所宣称的“能耗效率上提升一个数量级”,因此业内有专家认为谷歌采用了此种思路。
2、从谷歌TPU 设计思路看人工智能硬件发展趋势
目前的GPU加速方案以及FPGA加速方案在人工智能计算领域都存明显缺点:在计算单元上,GPU的内置计算单元主要针对图像处理设计,计算精度过高存在浪费;FPGA的LUT功能过于弱小,没有针对低精度浮点计算优化;在NOC架构上,FPGA和GPU原始设计匹配的目标均与神经网络计算存在很大差异性,因此用于人工智能计算加速都存在一定缺憾。以上表现在计算需求雷达图上即为图:GPU(蓝线)和FPGA(红线)均不能较好的覆盖住人工智能的需求(绿线)。除了进程交互问题外,实时性和计算延迟同样是人工智能加速的一个重要问题。在人工智能的一些应用场景,如无人驾驶汽车中,汽车的运行速度可能高达40m/s,在计算中额外0.1s的延迟意味着汽车多行驶4米,这就是生与死的差距。GPU的延迟和实时性较差从长期来看会影响其应用在类似无人驾驶这样在实时性和延迟要求较高的场景中。
4、GPU/FPGA 用于神经网络计算的弱点:片上网络
在人工智能硬件领域,FPGA加速同样是一条有竞争力的技术路径。早在中国搜索引擎巨头百度就尝试与Altera合作探索使用FPGA加速神经网络运算用于搜索结果的优化中,微软也在bing搜索服务中做了相似的探索。Auviz Systems公司在2015年发布了一份研究数据,在神经网络计算中,高端FPGA可处理14个或更多图像/秒/瓦特,而同期一个高端的GPU仅能处理4个图像/秒/瓦特。但目前学术界已有共识,不管是FPGA还是GPU,由于其最初设计匹配的计算模型与神经网络计算模型存在不同,其并行计算核心之间的通信架构-NOC(Network on Chip,片上网络)应用在神经网络运算中均存在缺点。由于FPGA/GPU针对的并行计算模型不同,其片上网络的实现方式也就不同:GPU最初针对图像处理SIMT类任务优化,各个处理核心之间的通信较少且形式简单,因此计算节点主要通过片上共享存储通信,原理如图: A/C计算节点分别向片上共享存储的不同地址写入数据,然后B/D通过读数据的方式完成A->B/C->D的通信。这种片上网络每次通信涉及读写片上共享存储各一次,不仅速度慢,当通信量更多(原本不会发生在图形处理任务中)的时候存储的读写端口还会因堵塞成为系统性能的关键瓶颈。FPGA包含大量细粒度,可编程,但功能较弱的LUT(Look up table查找表)计算节点,各个LUT之间通过网格状NOC连接,网格的节点具备Routing(路由)功能。FPGA可以提供计算单元间直接通讯功能:A节点可通过路由网络沿着红色箭头将数据传输至芯片上任意计算节点B,且传输路径动态可编程。因此网格NOC相比共享内存方案能提供大的多的片上通讯容量,相比之下也不易出现瓶颈节点堵塞问题。Auviz Systems能够得出FPGA在神经网络处理中优于高端GPU的方案的结论,很大程度依靠FPGA的片上通信能力而不是羸弱的LUT计算能力。
神经网络作为一种并行计算程序,适配的计算节点通讯硬件是提升性能的关键要素之一。目前FPGA和GPU的片上网络架构均不完全匹配神经网络的实际需求,相比之下GPU的共享内存连接的匹配度更差一些。学术界对于定制特殊的NOC去匹配神经网络加速需求已有一定研究,但之前因神经网络算法本身没有商用化,因此定制NOC硬件这一思路也停留在实验室内。随着人工智能实用化和产业化的发展,这些技术将对现有的GPU/FPGA方案形成威胁和替代。
二、GPU 未来较适应场景解析
GPU虽然不能处理所有大规模并行计算问题,但在其适应的特定计算领域,特别是图形优化处理上依然具备绝对性能优势。GPU未来较为适合拓展应用场景应为VR/AR(虚拟现实/增强现实)、云计算+游戏结合、以及云计算服务器中为特定的大数据分析提供加速。在这些领域的增长点有可能是独立GPU突破现有增长迟缓障碍的新增长领域。
1、VR 应用:持续增长的优势领域
在VR(Virtual Reality,虚拟现实)设备性能指标中,图像显示性能是其核心竞争力。在VR中降低从用户头部动作到画面改变的延迟至20毫秒以下是防止用户眩晕的必要条件;而达到这点除了需要软件和OS优化以外,足够的硬件图像计算能力是基础。表1举例了VR图形显示的要求以及大众级显卡能够提供的图形显示水平:
正因目前大众显卡无法提供VR所需的图形处理计算能力,现有的两大主流头显Oculus Rift和HTC VIVE均要求配套的PC配置顶级显卡,如Nvidia GTX970或AMDR9 290级别的显卡。从长期来看,VR/AR设备将拉动中高端GPU市场的持续增长。VR以及AR(增强现实)更广阔的应用在于独立一体机上:独立一体机具备移动能力,让VR/AR超脱出了客厅应用这一范畴,与移动互联网结合后成为每个人都需要消费电子产品。但移动一体机对计算芯片的能耗,体积乃至散热都有着严格的要求。目前SoC(System on Chip, 片上系统)上集成GPU在移动一体机上的优势是独立GPU显卡暂时无法动摇的。
2、云计算/大数据应用
亚马逊风靡全球的计算平台EC2中,Nvidia GPU已经被作为一个重要的并行计算组件提供给客户,用作大规模并行浮点数计算。用户每使用一个实例可调用两个Nvidia Tesla m2050 GPU。在EC2中调用GPU的原理是AWS的管理程序Hypervisor被直接跳过,而DomU OS和应用可以直接通过IO与GPU通信,充分发挥GPU在浮点数的并行计算能力。
3、GPU,云和游戏服务结合
在现如今互联网基础设施已经完善的市场,把GPU和云计算以及游戏结合在一起是游戏产业下一个具有吸引力的发展方向。对于游戏开发者,不需要担心盗版问题;对于游戏运营商,云服务可以获得更精确的客户资料,开展新式计费;对于游戏玩家,无需购买昂贵高端游戏主机或PC,初始投资少;对于游戏玩家,云服务游戏更具备移动性。目前云计算+GPU+游戏这个模式限于现有网络基础设施限制,依然没有大规模商用,但Nvidia依然对其抱有厚望并积极推动。从这个侧面也可以看出,Nvidia自己也知道GPU未来最主要的应用领域依然是游戏的图像处理上。
GPU还有一块市场是军用GPU市场,这一市场与民用GPU市场有着很大不同。民用GPU追求画面性能的极致,以最好的画面满足消费者,特别是游戏玩家的需求;而军用GPU更多的要求在于高可靠性、高耐用性、抗高空辐射、能在野战环境下安全使用。需求的导向不同导致GPU从工艺到芯片设计理念都截然不同。
参考文献链接
https://mp.weixin.qq.com/s/OtyCdAuqRVxfyNTWLFzc2w
https://mp.weixin.qq.com/s/p6AnOLEok9sUdIvLElkDYg
标签:分析,FPGA,人工智能,神经网络,计算,GPU,MCU From: https://www.cnblogs.com/wujianming-110117/p/17069597.html