首页 > 其他分享 >ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用

ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用

时间:2023-01-05 12:05:51浏览次数:61  
标签:snapCount 数据文件 文件 ZooKeeper 避坑 SnapCount 磁盘 日志

作者:子葵


背景


在 ZooKeeper 的日常使用过程中,一个令人头疼的问题就是节点的磁盘容量问题,如果由于过大的 TPS 或者不适当的清理策略会导致集群中数据文件,日志文件的堆积,最终导致磁盘爆满,Server 宕机。近期就在线上发现某用户的一个集群在一个时间段内的 TPS 暴增。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_数据


导致磁盘中 snapshot 和 transaction log 文件非常多。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_阿里云_02


最终导致磁盘被写满,节点服务不可用。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_数据_03


本篇通过深入解读 ZooKeeper 数据文件生成机制,以及 ZooKeeper 中和数据文件生成相关的参数,探究一下 解决 ZooKeeper 磁盘问题的最佳实践。


分析


ZooKeeper 中生成的数据文件有哪些?


首先我们需要探究一下  ZooKeeper 对数据进行持久化的基本原理,ZooKeeper 为了保证所有的数据变更不丢失,采用状态机来进行数据的记录和恢复,简单来讲,ZooKeeper 中有一个大 Map 存储所有 Znode,key 就是 Znode 的 Path,value 就是 Znode 中的数据,acl,状态等信息,ZooKeeper 通过在某一时间点对内存中的大 Map 进行序列化得到这一时间点内存中数据的一份快照,同时通过另一个文件,存储在此时间节点之后对这份快照中数据状态的修改操作。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_数据文件_04


当 ZooKeeper 节点重启的时候,会通过现有的 snapshot 和 transaction log 进行数据恢复。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_日志文件_05


采用这种做法能够很好的保证内存中已变更的数据不会丢失,同时写性能不会有太多损失,在遇到节点宕机之后,能够完整的恢复数据。


从此看来,ZooKeeper 产生的数据文件主要有两类:内存中数据的快照文件,以及存储变更的事务日志文件,这两类文件分别通过配置文件中的 dataDir 和 dataLogDir 进行指定,这也是 ZooKeeper 中占用磁盘空间比较大的两类文件。


当 zk 中数据存储过多或者数据变更非常频繁的情况下,将内存中的存储的 snapshot 序列化到文件中,以及数据变更产生的事务日志文件就会很多很大,如果没有配置合适数据清理策略和参数,磁盘问题将会导致集群节点宕机,甚至服务不可用。


public class ZooKeeperServer implements SessionExpirer, ServerStats.Provider {
...
public void takeSnapshot(boolean syncSnap) {
long start = Time.currentElapsedTime();
try {
txnLogFactory.save(zkDb.getDataTree(), zkDb.getSessionWithTimeOuts(), syncSnap);
} catch (IOException e) {
LOG.error("Severe unrecoverable error, exiting", e);
// This is a severe error that we cannot recover from,
// so we need to exit
ServiceUtils.requestSystemExit(ExitCode.TXNLOG_ERROR_TAKING_SNAPSHOT.getValue());
}
...
}
...
}


当 Server 尝试将内存中的数据写入磁盘的时候,就会产生异常,Server 进程会直接退出。


对于这些问题,ZooKeeper 官方提供一些参数,通过合理的配置参数能够有效的减缓磁盘压力,接下来深入探究一下相关参数。


  • autopurge.snapRetainCount : (No Java system property) New in 3.4.0
  • autopurge.purgeInterval : (No Java system property) New in 3.4.0


首先 ZooKeeper 官方是支持定时清理数据文件的能力的,通过 autopurge.snapRetainCount  和 autopurge.purgeInterval 指定清理的间隔和清理时需要保留的数据文件的个数,这里需要注意的是,ZooKeeper 中开启此能力需要将 autopurge.purgeInterval 设置为一个大于 0 的值,此值代表清理任务运行的间隔(单位是小时)。一般情况下,配置这两个参数开启定时清理能力之后能够很大程度减轻磁盘的容量压力。但是定时清理任务的最小间隔是 1 小时,这在一些特殊场景下无法避免磁盘爆满的问题。


当在两次磁盘的清理间隔中,有大量的数据变更请求时,会产生大量的 transaction log 文件和 snapshot 文件,由于没有达到清理的事件间隔,数据累计最终在下一次磁盘清理之前把磁盘写满。为了更好了理解其他参数,我们先探究一下 ZooKeeper 会在什么时候产生快照文件和事务日志文件。


ZooKeeper 在什么时间生成这些数据文件

通过在代码中方法引用 (ZooKeeperServer.takeSnapshot),发现在以下情况下会触发新的快照文件的生成


  • 节点启动,加载完数据文件之后
  • 集群中产生新 leader
  • SyncRequestProcessor 中达到一定条件(shouldSnapshot 方法指定)


前两种情况都是非高频的,我们看一下第三种情况,在 SyncRequestProcessor 的 run 方法中调用了 takeSnapshot 方法,在此之前调用了 shouldSnapshot 进行了判断:


private boolean shouldSnapshot() {
int logCount = zks.getZKDatabase().getTxnCount();
long logSize = zks.getZKDatabase().getTxnSize();
return (logCount > (snapCount / 2 + randRoll))
|| (snapSizeInBytes > 0 && logSize > (snapSizeInBytes / 2 + randSize));
}


其中 logCount 的值是当前事务日志文件的大小以及事务日志的数量,snapCount,snapSizeInBytes 是通过 Java SystemProperty 配置的值,randRoll 是一个随机数(0 < randRoll < snapCount / 2),randSize 也是一个随机数(0 < randSize < snapSizeInBytes / 2),因此这个判断条件的逻辑可以总结为下:


当当前事务日志文件中的事务数量大于运行时产生的和 snapCount 相关的一个随机值(snapCount/2 < value < snapCount)或者当前的事务日志文件的大小大于一个运行是产生的和 snapSizeInBytes 相关的随机值(snapSizeInBytes/2 < value < snapSizeInBytes)就会进行一次 snapshot 的文件写入,并且可以从代码中看到,写入snapshot会将现在的事务日志文件刷入磁盘,并新建一个事务日志文件。


public void run() {
if (shouldSnapshot()) {
resetSnapshotStats();
// 滚动事务日志文件
zks.getZKDatabase().rollLog();
// take a snapshot
if (!snapThreadMutex.tryAcquire()) {
LOG.warn("Too busy to snap, skipping");
} else {
new ZooKeeperThread("Snapshot Thread") {
public void run() {
try {
zks.takeSnapshot();
} catch (Exception e) {
LOG.warn("Unexpected exception", e);
} finally {
snapThreadMutex.release();
}
}
}.start();
}
}
}

snapCount,snapSizeInBytes 这两个变量可以通过 ZooKeeper 的配置文件中指定。


  • snapCount : (Java system property: zookeeper.snapCount)
  • snapSizeLimitInKb : (Java system property: zookeeper.snapSizeLimitInKb)


由此可知,可以通过在配置文件中配置 snapCount 和 snapSizeLimitInKb 来控制 snapshot 文件产生的频率。


建议


通过以上分析可知,可以通过 4 个参数对 ZooKeeper 的数据文件生成和清理进行配置。


  • autopurge.snapRetainCount : (No Java system property) New in 3.4.0
  • autopurge.purgeInterval : (No Java system property) New in 3.4.0
  • snapCount : (Java system property: zookeeper.snapCount)
  • snapSizeLimitInKb : (Java system property: zookeeper.snapSizeLimitInKb)

前两个配置项指定 ZooKeeper 的定时清理策略,后两个参数配置ZooKeeper生成快照文件的频率。


根据前面分析,可以指通过将 snapCount 和 snapSizeLimitInKb 调整大可以减小 snapshot 的生成频率,但是如果设置的过大,会导致在节点重启时,加载数据缓慢,延长服务的恢复时间,增大业务风险。


autopurge.purgeInterval 最小只能指定为 1,这将清理间隔硬限制到 1 小时,针对高频写入情景无法降低风险。


MSE ZooKeeper 针对以上分析的 ZooKeeper 的磁盘问题,设置了合适的参数,并且用户可以方便更改相关参数实现业务场景适配,并且 MSE ZooKeeper 在 ZooKeeper 自身的数据清理机制外,提供额外保障手段,保障集群免受磁盘问题影响。


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_数据_06


运营活动


重磅推出 MSE 专业版,更具性价比,可直接从基础版一键平滑升级到专业版!


ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用_阿里云_07


点击此处,前往微服务引擎 MSE 官网查看更多~

标签:snapCount,数据文件,文件,ZooKeeper,避坑,SnapCount,磁盘,日志
From: https://blog.51cto.com/u_13778063/5990024

相关文章

  • ZooKeeper 避坑实践:SnapCount 设置不合理导致磁盘爆满,服务不可用
    作者:子葵背景在ZooKeeper的日常使用过程中,一个令人头疼的问题就是节点的磁盘容量问题,如果由于过大的TPS或者不适当的清理策略会导致集群中数据文件,日志文件的堆积,最......
  • Arch Manjaro 的清华aur源,yay换源避坑
    清华AUR源关了,不能用了,望大家周知鉴于网上那么多全是让换清华源的过时博客还是换回官方源吧。yay--aururl"https://aur.archlinux.org"--save......
  • Notepad++下载避坑
    是免费的编辑器NOTEPAD++,今天下载时竟然发现了假冒网站,安装还要收费。新手千万不要上当,真是良心叫狗吃了。官网地址:https://notepad-plus.en.softonic.com/ 第一个程序......
  • zookeeper集群配置
    前言:zookeeper支持本机多个进程之间的集群,本文描述的是多个独立主机的分布式集群。一、前提条件至少需要3台独立主机(不管是虚拟机还是独立硬件)因为zookeeper支持“大多......
  • 零宽度空格(不可见空格)避坑
    一、问题描述前端传的参数肉眼看不出空格之类的特殊符号 后端保存到txt的时候发现多出来一个?,如下图:  二、问题发现一开始想了下整个流程以及监控了数据的流转,......
  • kafka常用命令(zookeeper与bootstrap-server)
       在0.9.0.0之后的Kafka,出现了几个新变动,一个是在Server端增加了GroupCoordinator这个角色,另一个较大的变动是将topic的offset信息由之前存储在zookeeper......
  • ZooKeeper Installation and Configuration
    ZooKeeperInstallationandConfigurationHowtoconfigureZookeepertoworkbestwithClickHousePrepareandStartZooKeeperPreparationBeforebeginning,dete......
  • Springboot 整合 Dubbo/ZooKeeper 详解 SOA 案例
    一、为啥整合Dubbo实现SOADubbo不单单只是高性能的RPC调用框架,更是SOA服务治理的一种方案。核心:1.远程通信,向本地调用一样调用远程方法。2.集群容错3.服务自动发......
  • Zookeeper---分布式基础
    1.whyzookeeper现在各个服务大部分都是集群。多个节点一起工作。就是传说中的分布式。多个节点工作肯定不会个一个节点工作一模一样。需要来进行数据的同步等。高并发,就......
  • zookeeper实战
    22.zookeeper实战官方参考sts部署:运行ZooKeeper,分布式系统协调器|Kubernetes#这是jdk环境root@k8s-master1:~/k8s-data/dockerfile/web/magedu/zookeeper#nerdctlpul......