首页 > 其他分享 >MIT6.824 课程-Raft

MIT6.824 课程-Raft

时间:2024-09-10 22:03:46浏览次数:9  
标签:term S2 课程 服务器 Raft 日志 MIT6.824 Leader

Fault Tolerance - Raft

容错模式

我们已经学习了以下几种容错模式(fault-tolerance pattern):

  • 计算冗余:MapReduce,但是所有计算由单点 Master 进行调度。
  • 数据冗余:GFS,也是依赖单点 Master 来对多个副本进行选主。
  • 服务冗余:VMware-FT 依赖单个 TestAndSet 操作

可以看出他们都依赖单个组件来做一些关键决策。这样做的好处在于,单个组件不需要共识算法,不会产生不一致;不好的地方在于,该组件成为系统中的一个单点。当然,上述系统已经将单点问题压缩到了一个很小的部分,那么接下来,我们将进一步用一种共识算法——Raft,来将最后这个硬骨头啃下来。

Split Brain

共识算法中最大的问题在于——如何避免 Split Brain

那么 Split Brain 是如何产生的,其危害性为什么很大?

假设我们要对 test-and-set 服务进行备份。test-and-set,简而言之,就是一个锁服务。当多个 Client 同时请求服务时,只有其中一个能通过 Test(测试是否为0),获取锁,并设置 Server 状态为 1,则其他 Client 测试不能通过,从而不能获取锁。

考虑有以下四个系统角色:[C1, C2, S1, S2],S1 和 S2 组成一个双备份的、可容错的系统,C1 和 C2 是使用此系统的客户端。假设 C1 可以和 S1 通信,但是与 S2 失联。那在只有 S1 的情况下,系统能够给 C1 正常提供服务么?

  1. 如果 S2 真的宕机了,系统应当在 S2 缺席的情况下正常工作,否则系统就不能称之为是容错的(fault-tolerance)。
  2. 如果 S2 没有宕机,但是和 C1 失联了。则系统不能够给 C1 提供服务,因为 S2 可能正在给 C2 提供服务,如果让 S1 同时给 C1 服务,则会造成系统状态不一致,从而使服务出错:C1 和 C2 同时获取到锁。

在此种情况下,我们面临一种选择的困境:

  1. 要么不提供容错保证,尽管我们使用了双备份服务器。
  2. 要么仍然回复客户端请求,但由于 Split Brain 可能会发生,不保证一致性。

但问题在于,服务器 S1 无法区分 S2 是失联了("server crashed")还是网络故障了(network broken)。因为在这两种情况下,S1 看到的现象是一样的:向 S2 的请求得不到回复。S1 能够和 C1 通信,S2 能够和 C2 通信;但是 S1+C1 收不到 S2+C2 的回复,我们称这种情况为出现了网络分区(network partitionn)。

网络分区可能会持续很久,可能需要引入一个外力(比如说运维人员),来判断何时网络可信、何时服务器可信,才能打破僵局。那我们如何可以将容错做到自动化?答曰:多数票原则(majority vote)。

多数票原则

多数票原则,要求系统集群包含奇数个服务器,以此来避免出现同票困境(symmetry)。如上面只有两个服务的情况,两方各执一词,就很难决定以谁为准。

在有奇数个服务器的系统中,我们只要获取多数票就可以保持系统正常运转,而不会陷入同票僵局(如 Raft 中的主选举、提交日志条目等)。多数票原则能够打破僵局,其原理也很简单:不可能出现一个以上同时包含多数服务器的分区。需要注意的是,这里的多数指的是构成系统所有的服务器的多数,而非存活服务器的多数。

如果集群由 2f + 1 个服务器构成,最多能够承受 f 个服务器宕机,而仍能对外提供服务。

多数票原则还有一个重要的性质就是,任何两个投出多数票的集群必定相交。如在 raft 中,前后相继的两次 Leader 选举所涉及到的投票集群肯定有交集,因此下一轮能够通过相交部分获取上一个 term 的决策信息(包括上一轮的 term 和上一轮的 commit 信息)。

上世纪九十年代左右,出现了两个算法 Paxos 和 View-Stamped Replication (VSR,MIT提出的),使用多数票原则来解决 Split-brain 问题。虽然现在前者更广为人知,但是后者在思想上与 Raft 更为接近。

Raft 概览

Raft 一般表现为库的形式,运行在在每个副本(replica)服务器上,对多副本状态机 (replicated state machine) 进行管理,主要负责对操作日志的同步。基于此,我们可以进一步构建可靠的 KV 存储层,主要负责状态的存储。

上图表现了一个典型的客户端与键值对服务的交互流程:

  1. 客户端发送 "Put/Get" 请求到 Leader 的 k/v 层
  2. Leader 将该请求转换为 Command(包括动作和参数),追加到本机日志文件中
  3. Leader 通过 AppendEntries RPC 将该 Command 同步给 Followers
  4. Followers 将该 Command 追加到本机日志文件中
  5. Leader 等待包含自己内的多数 Server 回复
  6. 获取多数Server 回复后,Leader 就会提交 Command 对应日志条目。提交意味着该 Command 条目不会被删除,即使部分服务器宕机后,仍然能够被下一轮次 Leader 所继承
  7. Leader 执行该 Command,将其应用到状态机,然后回复给客户端
  8. 在下一次执行 AppendEntries RPC 时,Leader 将捎带 commit 信息(即 commit 到的操作日志中的 offset)同步给各个 Followers
  9. Followers 在收到 commit 信息后,将对应 Command 应用到状态机

操作日志

那么为什么要使用操作日志这种形式对用户的请求操作(Command)进行记录呢?

  1. Leader 使用日志来决定 Command 的顺序。使得所有副本就请求(尤其是大量几乎同时到达的请求)顺序达成一致、并且保有同样顺序的日志条目。在这种情况下,日志充当一个带锁的队列
  2. 暂存 Command 以备稍后 commit 之后进行提交
  3. 保存 Command 以备由于网络/服务器异常导致 Leader 需要再次发送给 Follower
  4. 服务器重启后进行状态重建

Q&A:

  1. 如果请求过快,但是日志 append 速度不够怎么办?

因此一般不用 raft 做高并发中间件。基于这种假设,如果真遇到这种情况,可以限制 Leader 的请求处理速度。

每个服务器在重启时,并不立即执行日志中的 Command,因为他并不知道哪些已经被提交了(提交点没有被持久化),需要后面 Leader 告诉他。

Raft 接口

Raft 对 KV 层提供的接口主要有两个:Start(command)ApplyMsg->ApplyCh

Start(command) (index, term, isleader)

Start 只在 Leader 上调用才有效,其含义在于让多数服务器在一个新的日志条目(Log Entry,其中包含 Command )上达成一致。主要有以下几步:

  1. Leader 将 Command 追加到本地日志中
  2. 向各 Follower 发送 AppendEntries RPC
  3. Start() 立即返回(给 k/v 层)而不等待各个 Follower 的回复(异步
  4. k/v 层需要监听 applyCh 以确定该 Command 是否被提交 (commit)

返回值有三个:

  1. index:Command 将会被提交到的日志位置
  2. term:Leader 的当前任期
  3. isleader:如果其值为 false,则客户端需要尝试其他服务器直到试到 Leader。
ApplyMsg->ApplyCh

ApplyMsg,包含 Command 和 Index 两个字段;applyCh,k/v 监听 raft commit 后发来的 ApplyMsg 的 channel

  1. 系统中每个服务器对于每个提交了的日志条目都要发送一个 ApplyMsg 给 applyCh
  2. 系统中每个服务器,获取到 ApplyMsg 后,将其中的 Command 更新到本地状态机
  3. Leader 负责回复请求给客户端(在对应日志条目 commit 之后)

在某个时刻,系统中的每个服务器的日志条目并不一定完全一致,比如说在 Leader 同步日志条目的过程中宕机了,那么 Leader 包括部分 Followers 已经追加了该日志条目,而另外的 Followers 没有收到该日志条目,此时系统中的每个服务器的的日志条目产生了分叉。

但好消息是,所有服务器的日志条目最终会被新的 Leader 统一。

Leader 选举

说到 Leader 选举,首先需要思考的一个问题是:Leader 是必须的吗?我们必须得有一个 Leader 才能够完成所有服务器上的日志同步么?答案是否定的,比如 Paxos。

那为什么 Raft 会采取 Leader 做法呢?原因有很多,其中一个是,在系统和网络正常工作的情况下,有 Leader 做决策能够使得系统更为高效;客户端每次请求至多两次(第一次得到 Leader 位置,第二次向 Leader 发送请求)。

任期(term)

Raft 对 Leader 的序列进行了标号,即任期(term):

  1. 新 Leader 意味着新任期
  2. 一个任期最多有一个 Leader,也可能没有 Leader
  3. 任期帮助 Followers 追随最新的 Leader,而不是已经下台的 Leader

选举(election )

当 Follower 在一定时间间隔(Raft 称之为选举选举超时,election timeout,具体实现时,我们会使用一个 election timer)内没有收到当前 Leader 的心跳信息,就会将将自己的 term 加一(因为一个 term 内不允许出现两个 Leader,因此只有先增加任期计数,才有可能在新的任期当选为新的 Leader),并且自封候选人,向自己投一票,然后向其他服务器进行要票。

需要注意的是:

  1. 这个过程可能会引起不必要的选举,比如说某个服务器暂时与 Leader 失联,超过 election timeout 之后,发起选举,此时又连上了 Leader,则其会将整个集群带入新的任期,使得原来 Leader 失效。这种做法虽然有时候效率不高,但是很安全
  2. 老的 Leader 可能还活着,并且认为自己是 Leader。比如发生了网络分区,Leader 被分到了少数服务器分区中,而多数服务器分区选出了新的 Leader。则老的 Leader 仍然会认为自己是 Leader,并且尝试行使 Leader 职能,比如接收客户端请求,并且尝试同步日志条目,但由于不可能获取多数回应,因此不可能 commit 进而回复客户端

Q&A:

如果网络发生了某种神奇的故障,只能单向通信,即 Leader 能够发送心跳给 Followers,抑制他们发起选举;但是却不能收到 Client 的请求。这种情况下 Raft 还能正常工作吗?

的确不能了,但是可以通过一些小手段来解决这个问题。比如说双向心跳,来及时排除这种"半连接"的服务器。

Leader 和任期

那么如何保证在某个任期最多选出一个 Leader 呢?

  1. 必须得到集群服务器的半数票以上才能成为 Leader
  2. 每个服务器在每个 term 内,最多投出一票
  3. 如果是 Candidate,无脑投自己
  4. 如果不是 Candidate,投给第一个要票(且符合一定条件,下一节会提到)的 Candidate

并且,当发生网络分区时,仍然能保证最多有一个 Leader;即使有少量的服务器宕机,仍然能够正常选出 Leader。

Leader 心跳

Candidate 通过获取多数票后当选为 Leader,但此时只有 Leader 自己知道自己是 Leader,而其他服务器无从得知。因此需要通过心跳,将此选举结果广播给其他服务器。收到心跳的服务器如果发现心跳 term 比自己的大,从而就认可该 Leader 为此 term 的 Leader,并且将自己所处 term 更新为 Leader term,然后变为 Follower。

此后,Leader 通过不断的心跳来抑制 Followers 转变为 Candidate,即抑制其他服务器发起选举。这也就要求 Leader 的心跳周期要比 election timeout 要小。

平票

在某个 term 内,有两种情况会导致选不出 Leader:

  1. 没有任何多于半数的服务器互相可达
  2. 多个 Candidate 同时发起选举,并且都没有获得多数票

为了避免多个 Candidate 不断的同时发起选举,同时超时而进入下一个 term,然后再次同时选举的死循环,Raft 引入随机值,即每个服务器的每次 election timeout 不是一个固定值,而是某个范围内的一个随机值。这样在某次选举撞车后,由于 election timeout 选择的不同,下一次发起选举就必然会错开。当然光错开还不行,必须错开的足够多,保证某个 Candidate 在其他服务器超时前,就开始对其发起投票,从而避免再次选举撞车。

选举超时

那么如何挑选 election timeout 呢?

  1. 其最小值最好要大于几倍的(两个以上)心跳间隔;因为网络偶尔会丢包,从而导致丢掉某些心跳,进而引起不必要的选举
  2. 随机区间尽可能的大,以使最快超时变成 Candidate 的服务器能及时向其他服务器发起选举,并成为 Leader
  3. 但又不能过长,以防止系统失去 Leader 时,长时间陷入停顿
  4. 在我们的实验中,过长会使得测试过不了(测试程序对选出 Leader 的过程是与时限要求的)

老的 Leader

当发生了网络隔离,Leader 和少数服务器被隔离到了一个分区,那么剩下的多数节点就会选出新的 Leader。如果老的 Leader 不能感受到新的 Leader 的产生,会出现什么问题吗?

  1. 老的 Leader 不会提交任何日志条目,因为他不能让多数 Follower 同步日志条目
  2. 虽然不会提交,但是部分服务器会接收老的 Leader 的日志条目,由此造成集群中服务器间的日志分歧

日志分歧

当系统一切运作正常时,情况很简单,Followers 只需要单方面的接受 Leader 同步给他的日志条目即可。但是当出现了异常,比如 Leader 只给集群中的部分机器同步了日志,然后宕机了,此时系统该如何往下进行?

当然,在上图 a 中,第 11 条日志可能被老 Leader 提交了,也可能没有。但是新的 Leader 如果无从得知,就只等根据多数票原则(有半数以上的服务器有该日志条目)当做其提交了。

崩溃后数据不一致

情况1: leader崩溃前将AppendEntries发送给所有节点

情况2: 在同一个位置出现不同的log(一种较坏的情况)

Raft将会强行使followersleader同步,S3S2同步过程如下所示

1、S3 被选做新的leaderterm6

2、S3发送一个AppendEntrieslog entiy 13上,同时带上上一个log的信息:prevLogIndex=12prevLogTerm=5

3、S2回复拒绝

4、将nextIndex[S2]112

5、S3 发送一个AppendEntrieslog entiy 12 + 13上,同时带上上一个log的信息:prevLogIndex=11prevLogTerm=2

6、S2删除自己的log entry 12并保持与S3一致

S1的同步的过程与之类似

Leader的选择

为什么不选择log最长的机器作为Leader?

出现该种情况的可能经过:

  • 任期5后进行重新选举,S1选举为Leader任期6,同时接收到客户端请求,写入本地log后进行AppendEntries同步到其他节点前崩溃了,该操作未提交
  • S1崩溃后迅速恢复,并选举成为Leader任期7,同时接收到客户端请求,再次写入本地log后进行AppendEntries同步到其他节点前崩溃了,该操作未提交
  • S2或者S3选举成为Leader任期8,同时接收到客户端请求,再次写入本地log后进行AppendEntries,多数服务器成功写入,操作被提交

虽然S1log记录最长,但是67的两次提交均未提交,而S28已提交

选举限制

RequestVote处理程序仅对“at least as up to date”的候选人投票:

1、候选人在上一条日志中具有较高的term

2、候选人的具有相同的term,时长相同或更长log

所以上述案例,S2 和S3不会投票给S1,S2与S3会互相投票

Fast Backup(快速备份)

S2作为leaderterm6S1刚从崩溃中恢复过来,S2S1发送一次AE

S1返回的信息还包括以下:

XTerm:发生冲突的term

XIndex:发送冲突的term对应的第一个index

XLen:log的长度

Case 1nextIndex = XIndex (S2中有Xterm)

Case 2nextIndex = S2的最后一次XTerm提交 (S2中没有Xterm)

Case 3nextIndex = XLen (S1的log长度)

持久化

有哪些变量是需要持久化的:

  • Log[]:操作日志记录,预写日志。数据可能没有落盘,需要通过LOG来恢复。
  • CurrentTerm:当前任期。
  • votedFor:避免同一个任期,再重启后重复投票的情况。

快照

Log压缩和快照(Log compaction and snapshots)在Lab3b中出现的较多。在Raft中,Log压缩和快照解决的问题是:对于一个长期运行的系统,例如运行了几周,几个月甚至几年,如果我们按照Raft论文图2的规则,那么Log会持续增长。最后可能会有数百万条Log,从而需要大量的内存来存储。如果持久化存储在磁盘上,最终会消耗磁盘的大量空间。如果一个服务器重启了,它需要通过重新从头开始执行这数百万条Log来重建自己的状态。当故障重启之后,遍历并执行整个Log的内容可能要花费几个小时来完成。这在某种程度上来说是浪费,因为在重启之前,服务器已经有了一定的应用程序状态。

为了应对这种场景,Raft有了快照(Snapshots)的概念。快照背后的思想是,要求应用程序将其状态的拷贝作为一种特殊的Log条目存储下来。我们之前几乎都忽略了应用程序,但是事实是,假设我们基于Raft构建一个key-value数据库,Log将会包含一系列的Put/Get或者Read/Write请求。假设一条Log包含了一个Put请求,客户端想要将X设置成1,另一条Log想要将X设置成2,下一条将Y设置成7。

如果Raft一直执行没有故障,Raft之上的将会是应用程序,在这里,应用程序将会是key-value数据库。它将会维护一个表单,当Raft一个接一个的上传命令时,应用程序会更新它的表单。

所以第一个命令之后,应用程序会将表单中的X设置为1。

第二个命令之后,表单中的x会被设置为2。

第三个命令之后,表单中的y会被设置为7。

所以,当Raft认为它的Log将会过于庞大,例如大于1MB,10MB或者任意的限制,Raft会要求应用程序在Log的特定位置,对其状态做一个快照。所以,如果Raft要求应用程序做一个快照,Raft会从Log中选取一个与快照对应的点,然后要求应用程序在那个点的位置做一个快照。这里极其重要,因为我们接下来将会丢弃所有那个点之前的Log记录。如果我们有一个点的快照,那么我们可以安全的将那个点之前的Log丢弃。(在key-value数据库的例子中)快照本质上就是key-value表单。

参考文档

Raft 笔记(七) – Client interaction

线性一致性和 Raft

线性一致性:什么是线性一致性?

分布式系统一致性

6.824 2020 视频笔记六:Fault Tolerate Raft 1

MIT课程分布式系统学习07——Fault Tolerance raft2

Raft论文中文翻译

视频资料

Raft 算法动画演示中文讲解

标签:term,S2,课程,服务器,Raft,日志,MIT6.824,Leader
From: https://www.cnblogs.com/cnyuyang/p/18407292

相关文章

  • MIT6.824 课程-GFS
    GFS原文:https://zhuanlan.zhihu.com/p/113161014搬运用于参考学习概述存储(Storage)是一个非常关键的抽象,用途广泛。GFS论文还提到了很多关于容错、备份和一致性的问题。GFS本身是Google内部一个很成功的实用系统,其关键点被很好的组织到一块发表成为了学术论文,从硬件到......
  • MIT6.824 课程-PrimaryBackupReplication
    PrimaryBackupReplication背景为实现可容错的服务器,主从备份是一种常用的解决方案:在开启了主动备份的系统中,备份服务器的状态需要在几乎任何时候都与主服务器保持一致,这样当主服务器失效后备份服务器才能立刻接管。实现主备间的状态同步主要包括以下两种方式:StateTransfer(......
  • MIT6.824 课程-MapReduce
    MapReduce:在大型集群上简化数据处理概要MapReduce是一种编程模型,它是一种用于处理和生成大型数据集的实现。用户通过指定一个用来处理键值对(Key/Value)的map函数来生成一个中间键值对集合。然后,再指定一个reduce函数,它用来合并所有的具有相同中间key的中间value。现实生活中......
  • 卷积神经网络多输入和多输出的通道数(李沐老师课程)
    多通道卷积计算特殊的卷积层1*1卷积核代码:"""​多输入多输出的互相关运算"""importtorchfromtorchimportnnfromd2limporttorchasd2l​"""实现多输入通道互相关运算"""​​defcorr2d_multi_in(x,k): returnsum(d2l.corr......
  • 数据库课程设计,计算机课程设计——乐队歌迷管理系统
    乐队歌迷管理系统(私信获取完整代码)业务场景某个数据库记录乐队、乐队成员、专辑、歌曲、演唱会和歌迷的信息:每个乐队包括名称、成立时间等,每个乐队有一个队长;乐队每位成员包括名字、性别、年龄、乐队分工等,每个成员有加入乐队的时间,(如果中途离开)有离开乐队的时间;专辑包......
  • 人工智能课程记录(2024.9.10)
    一、搜索引擎的分类:1.目录式搜索:网易、搜狐、知网等2.全文式搜索:百度、夸克等二、使用搜索引擎的技巧指令:1.使用“-”(减号)在关键词的前面使用减号,也就意味着在查询结果中不能出现该关键词,覆索的格式为“关键词空榴+减号+关键词B”。2.使用filetype指令可以查询特定格式的文件......
  • 常见的Java课程设计/毕业设计选题
    从网上整理收集了常见的java系统设计源码,可以用于课程作业或者毕业设计。技术栈:java/springboot/mysql/js/vue1.基于java的家政预约网站系统平台采用B/S结构,后端采用主流的Springboot框架进行开发,前端采用主流的Vue.js进行开发。整个平台包括前台和后台两个部分。前台功能包括:首页......
  • 【万字文档+PPT+源码】基于springboot+vue电影推荐系统-可用于毕设-课程设计-练手学习
    博主简介:......
  • 基于springboot+vue的运动会成绩管理系统-可用于计算机毕设-课程设计-练手学习
    博主简介:......
  • 【万字文档+源码】基于springboot+vue高校学生评教系统-可用于毕设-课程设计-练手学习
    博主简介:......