首页 > 其他分享 >计算机体系架构——Cache

计算机体系架构——Cache

时间:2023-06-11 11:45:45浏览次数:38  
标签:状态 Cache 架构 计算机 cache 主存 数据 替换

本文主要内容如下,基本涉及了cache的概念,工作原理,以及保持一致性的入门内容。

1 为什么需要Cache

1.1 为什么需要Cache

我们首先从一张图来开始讲为什么需要cache.

 

上图是CPU性能和Memory存储器访问性能的发展。我们可以看到,随着工艺和设计的演进,CPU计算性能其实发生了翻天覆地的变化,但是DRAM存储性能的发展没有那么快。

所以造成了一个问题,存储限制了计算的发展。容量与速度不可兼得。

如何解决这个问题呢?可以从计算访问数据的规律入手。

我们随便贴段代码

可以看到,由于大量循环的存在,我们访问的数据其实在内存中的位置是相近的。换句专业点的话说,我们访问的数据有局部性。

我们只需要将这些数据放入一个小而快的存储中,这样就可以快速访问相关数据了。

总结起来,Cache是为了给CPU提供高速存储访问,利用数据局部性而设计的小存储单元。

1.2 实际系统中的Cache

我们展示一下实际系统中的cache。

 数据访问时先找寄存器,寄存器里没有找L1 Cache, L1 Cache里没有找L2 Cache依次类推,最后找到硬盘中。

同时,我们可以看到,速度与存储容量的折衷关系。容量越小,访问速度越快!

其中,一个概念需要搞清楚。

CPU和Cache是word传输的,而Cache到主存是以块传输的。一块大约64Byte.

现有SOC中的Cache一般组成如下。

1.3 Cache的分类

Cache按照不同标准分类可以分为若干类。

  • 按照数据类型划分:I-Cache与D-Cache。其中I-Cache负责放置指令,D-Cache负责方式数据。两者最大的不同是D-Cache里的数据可以写回,I-Cache是只读的。
  • 按照大小划分:分为small cache和large cache。没路组(后文组相连介绍)<4KB叫small cache, 多用于L1 Cache, 大于4KB叫large cache。多用于L2及其他cache.
  • 按照位置划分:Inner Cache和Outer Cache。一般独属于CPU微架构的叫Inner cache, 例如上图的L1 L2 CACHE。不属于CPU微架构的叫outer cache.
  • 按照数据关系划分:Inclusive/exclusive Cache: 下级Cache包含上级的数据叫inclusive cache。不包含叫exclusive cache。举个例子,L3 Cache里有L2 Cache的数据,则L2 Cache叫exclusive cache。

2 Cache的工作原理

要讲清楚Cache的工作原理,需要回答4个问题:

  • 数据如何放置
  • 数据如何查询
  • 数据如何被替换
  • 如果发生了写操作,cache如何处理

2.1 数据如何放置

这个问题也好解决。我们举个简单的栗子来说明问题。

假设我们主存中有32个块,而我们的cache一共有8个cache行( 一个cache行放一行数据)。

假设我们要把主存中的块12放到cache里。那么应该放到cache里什么位置呢?

三种方法:

  • 全相连(Fully associative)。可以放在cache的任何位置。
  • 直接映射(Direct mapped)。只允许放在cache的某一行。比如12 mod 8
  • 组相连(set associative)。可以放在cache的某几行。例如2路组相连,一共有4组,所以可以放在0,1位置中的一个。

不同的放置方式主要影响有两点:

  1. 组相连组数越大,比较电路就越大,但Cache利用率更高,cache miss发生的概率小。
  2. 组相连数目变小,cache经常发生替换,但是比较电路比较小。

这也好理解,内存中的块在cache中可放置的位置多,自然找起来就麻烦。

2.2 如何在Cache中找数据

其实找数据就是一个比对过程。如下图所示。我们地址都以Byte为单位的。但主存于cache之间的数据交换单位都是块(block,现代cache一般一个block大约64Byte)。所以地址对最后几位是block offset。由于我们采用了组相连,则还有几个比特代表的是存储到了哪个组。

组内放着若干数据。我们需要比较Tag, 如果组内有Tag出现,则说明我们访问的数据在缓存中,可以开心的使用了。

比如举个2路组相连的例子。如下图所示。T表示Tag。直接比较Tag,就能得知是不是命中了。如果命中了,则根据index(组号)将对应的块取出来即可。

如上图所示。用index选出位于组相连的哪个组。然后并行的比较Tag, 判断最后是不是在cache中。上图是2路组相连,也就是说两组并行比较。

那如果不在缓存中呢?这就涉及到另一个问题。

不在缓存中如何替换cache?

2.3 如何替换Cache中的数据

cache中的数据如何被替换的?这个就比较简单直接。

  • 随机替换。如果发生cache miss里随机替换掉一块。
  • Least recently used. LRU。最近使用的块最后替换。
  • First in, first out (FIFO), 先进先出。

实际上第一个不怎么使用,LRU和FIFO根据实际情况选择即可。

cache在什么时候数据会被替换内?也有几种策略。

  • 不在本cache替换。如果cache miss了,直接转发访问地址到主存,取到的数据不会写到cache.
  • 在读MISS时替换。如果读的时候cache里没有该数据,则从主存读取该数据后写入cache。
  • 在写MISS时替换。如果写的时候cache里没有该数据,则将本数据调入cache再写。

2.4 如果发生了写操作怎么办

Cache毕竟是个临时缓存。如果发生了写操作,会造成cache和主存中的数据不一致。如何保证写数据操作正确呢?也有三种策略。

  • 通写:直接把数据写回cache的同时写回主存。极其影响写速度。

  • 回写:先把数据写回cache, 然后当cache的数据被替换时再写回主存。

  • 通写队列:通写与回写的结合。先写回一个队列,然后慢慢往主存储写。如果多次写同一个数据,直接写这个队列。避免频繁写主存。

3 Cache一致性

Cache一致性是Cache中遇到的比较坑的一个问题。什么原因需要cache处理一致性呢?

主要是多核系统中,假如core 0读了主存储的数据,写了数据。core 1也读了主从的数据。这个时候core 1并不知道数据已经被改动了,也就是说,core 1 cache中的数据过时了,会产生错误。

Cache一致性的保证就是让多核访问不出错。

Cache一致性主要有两种策略。

策略一:基于监听的一致性策略

这种策略是所有cache均监听各cache的写操作,如果一个cache中的数据被写了,有两种处理办法。

写更新协议:某个cache发生写了,就索性把所有cache都给更新了。

写失效协议:某个cache发生写了,就把其他cache中的该数据块置为无效。

策略1由于监听起来成本比较大,所以只应用于极简单的系统中。

策略二:基于目录的一致性策略

这种策略是在主存处维护一张表。记录各数据块都被写到了哪些cache, 从而更新相应的状态。一般来讲这种策略采用的比较多。又分为下面几个常用的策略。

  • SI: 对于一个数据块来讲,有share和invalid两种状态。如果是share状态,直接通知其他cache, 将对应的块置为无效。
  • MSI:对于一个数据块来讲,有share和invalid,modified三种状态。其中modified状态表表示该数据只属于这个cache, 被修改过了。当这个数据被逐出cache时更新主存。这么做的好处是避免了大量的主从写入。同时,如果是invalid时写该数据,就要保证其他所有cache里该数据的标志位不为M,负责要先写回主存储。
  • MESI:对于一个数据来讲,有4个状态。modified, invalid, shared, exclusive。其中exclusive状态用于标识该数据与其他cache不依赖。要写的时候直接将该cache状态改成M即可。

我们着重讲讲MESI。图中黑线:CPU的访问。红线:总线的访问,其他cache的访问。

当前状态时I状态时,如果发生处理器读操作prrd

  • 如果其他cache里有这份数据,如果其他cache里是M态,先 把M态写回主存再读。否则直接读。最终状态变为S。
  • 其他cache里没这个数据,直接变到E状态。

当前状态为S态

  • 如果发生了处理器读操作,仍然在S态。
  • 如果发生了处理器写操作,则跳转到M状态。
  • 如果其他cache发生了写操作,跳到I态。

当前状态E态

  • 发生了处理器读操作还是E。
  • 发生了处理器写操作变成M。
  • 如果其他cache发生了读操作,变到S状态。

当前状态M态

  • 发生了读操作依旧是M态。
  • 发生了写操作依旧是M态。
  • 如果其他cache发生了读操作,则将数据写回主存储,变换到S态。

标签:状态,Cache,架构,计算机,cache,主存,数据,替换
From: https://www.cnblogs.com/lanlancky/p/17472729.html

相关文章

  • ArangoDB介绍——未知架构和底层原理
    ArangoDB介绍ArangoDB是一个开源NoSQL数据库,官网:https://www.ArangoDB.org/ArangoDB支持灵活的数据模型,比如文档Document、图Graph以及键值对Key-Value存储。ArangoDB同时也是一个高性能的数据库,它使用类SQL查询或JavaScript扩展来构建高性能应用。ArangoDB值得称赞的一点,可以在树......
  • 操作系统(3.5.2)--计算机系统中的死锁
    1.竞争不可抢占性资源系统中所拥有的不可抢占性资源其数量不足以满足多个进程运行的需要,使得进程在运行过程中,会因争夺资源而陷入僵局。例如:系统中有两个进程P1和P2,它们都准备写两个文件F1和F2,而这两者都属于可重用和不可抢占性资源。进程P1先打开F1,然后再打开文件F2;进程P2先打开......
  • 架构师如何判断和利用技术趋势
    看技术趋势,甚至看任何发展趋势,都要先找前置量(Leadingindicator)。对于软件发展而言,硬件的革新往往是前置量。首先,硬件技术进化的驱动力是需求规模。计算机硬件技术从巨型机、大型机、小型机,到PC、Mobile的进化过程,就是市场需求规模的增长过程。随着市场需求规模越来越大,就会有越......
  • GitlabCI学习笔记之五:GitLabRunner pipeline语法之cache
    cache缓存用来指定需要在job之间缓存的文件或目录。只能使用该项目工作空间内的路径。不要使用缓存在阶段之间传递工件,因为缓存旨在存储编译项目所需的运行时依赖项。如果在job范围之外定义了cache ,则意味着它是全局设置,所有job都将使用该定义。如果未全局定义或未按job定义则......
  • 计算机网络中的曼彻斯特编码
    曼彻斯特编码是开放系统互连[OSI]的物理层用于对同步位流的时钟和数据进行编码的一种同步时钟编码技术。RZ的想法和L的想法在曼彻斯特结合数据通信采用不同的编码技术,保证数据安全和传输速度。曼彻斯特编码是数字编码的一个例子。由于每个数据位长度都是默认定义的,因此它与其他数......
  • 大二下 | 计算机体系结构 · 期中试卷
    一共有两张图片:(任国林老师:听我说谢谢你......
  • 大二上 | 计算机组成原理 · 小测试卷
    一共有两张图片:(任国林老师:听我说谢谢你......
  • 开源协议专题(一):计算机和操作系统发展史
    一、电子计算机发展史:从上世纪40年代起,人类开始研究并创造了计算机,从体型庞大功能简单的计算机,到超大规模集成电路的超级计算机;从简单的控制操作流程的程序,到多用户多任务多处理器架构的操作系统;短短半个世纪,人类在电子计算机科学领域,经历了创世纪历程,并以指数级速度发展(摩尔定......
  • WinCacheGrind网站性能测试工具
    WinCacheGrind是一个Windows平台下的PHPXdebug分析工具,可以帮助开发人员分析PHP应用程序的性能问题。它基于KCacheGrind,使用类似于KCacheGrind的界面,但是可以在Windows操作系统下运行。WinCacheGrind的主要功能包括:1.显示函数调用图:WinCacheGrind可以显示PHP......
  • 系统架构设计师笔记第10期:访问控制和数字签名
    访问控制技术访问控制是计算机系统中一种重要的安全机制,用于管理和控制用户对系统资源的访问权限。它的主要目标是确保只有经过授权的用户或实体能够访问资源,从而保护系统的安全性和保密性。访问控制技术的原理和主要技术如下:原理: 访问控制的原理基于授权和认证机制。授权指的是系......