首页 > 其他分享 >Rocksdb 的优秀代码(二)-- 工业级 打点系统 实现分享

Rocksdb 的优秀代码(二)-- 工业级 打点系统 实现分享

时间:2022-11-04 11:37:56浏览次数:43  
标签:std uint64 打点 const _. -- Rocksdb 耗时 直方图


文章目录

  • ​​前言​​
  • ​​数据结构选型​​
  • ​​打点代码设计​​
  • ​​耗时打点​​
  • ​​请求计数打点​​
  • ​​打点总结​​

前言

一个完善的分布式系统一定是需要完善的打点统计,不论是对系统内核 还是 对系统使用者都是十分必要的。系统的客户需要直观得看到这个系统的性能相关的指标来决定是否使用以及如何最大化使用系统,同样 系统的开发者也需要直观的看到系统各个组件的各项指标,来进行性能调优 以及 稳定性保障(运维监控,failover)。

而打点 主要 是耗时相关 以及 请求数相关的统计,这一些统计需要对系统代码侵入即需要消耗系统的执行时间。而 分布式系统对性能的极致需求肯定是不允许额外增加核心代码之外的执行耗时的(计算平均值,最大值,不同的分位数),所以打点代码需要尽可能降低对系统本身性能的影响,这里面就需要有足够精巧的代码设计。

回到今天分享的Rocksdb 的打点设计,Rocksdb作为单机引擎,被广泛应用在了各个分布式系统之中,而引擎的性能是上层分布系统性能的基础。本身外部系统对引擎性能有极致需求 且 Rocksdb本身也在不断追求卓越的性能,这个时候rocksdb自己的打点系统就非常有借鉴意义,其已经经过无数系统 和 卓越的开发者们反复验证,是一个非常有参考价值的打点代码设计。

本次分享会从两方面开看Rocksdb 的打点设计,也是最传统的打点类型:

  • 耗时统计(各个维度的耗时信息)
  • 请求统计(各个维度的请求个数相关的信息)

以下描述的打点主要是全局统计的,就是通过打开options.statistics 参数获取的;对于perf_context和iostats_contxt这一些thread local指标并不提及;

数据结构选型

打点的目的希望对内(研发者)以及对外(用户)提供系统性能的参考 以及 系统问题的报警,这一些信息会涉及到计算。举一个例子,比如分位数,像p50,p99,p999 这样的指标是监控系统必不可少的,用来展示系统的延时/长尾延时情况,这一些指标的计算是需要对抓取的请求保存并排序才能取到的。对于一个集群百万/千万级每秒的请求,每次取分位数,都需要对百万级数据进行排序?显然不可能。

所以这里 对打点数据的保存需要有合理的数据结构才行,rocksdb 提供了如下细节:

  • 保存各个指标都需要的数据结构
struct HistogramData {
// 从media -- perceile99的 都是分位数
double median; // P50
double percentile95; // P95
double percentile99; // P99
double average; // 平均值
double standard_deviation; // 方差
// zero-initialize new members since old Statistics::histogramData()
// implementations won't write them.
double max = 0.0;
uint64_t count = 0;
uint64_t sum = 0;
double min = 0.0;
}
  • 计算分位数的核心数据结构,比如P999 表示到目前为止所有请求中从小到大 第0.1% 个请求的耗时指标。
    而这个从小到大 不一定需要真正通过排序算法排序,第0.1% 也不一定精确的第0.1%个,可以在其上下10个请求内浮动。
    所以这里针对分位数 的计算是维护了一个有序hash表,将统计的请求添加到对应所处范围的hash桶内,后续取P999这样的指标时排序只需统计从小桶的请求数到满足0.1%时请求数目 的桶 ,再进行更细粒度的取值。
    分位数算法细节比较多,有兴趣的可以看Rocksdb 的优秀代码(一) – 工业级分桶算法实现分位数p50,p99,p9999
    总之,不需要排序,只需要添加到一个map里自动排序,维护每个map 元素bucket的请求数即可。
class HistogramBucketMapper {
public:

HistogramBucketMapper(); // 初始化耗时值和整个耗时区间

// converts a value to the bucket index.
size_t IndexForValue(uint64_t value) const;
// number of buckets required.
size_t BucketCount() const {
return bucketValues_.size();
}
uint64_t LastValue() const {
return maxBucketValue_;
}
uint64_t FirstValue() const {
return minBucketValue_;
}
uint64_t BucketLimit(const size_t bucketNumber) const {
assert(bucketNumber < BucketCount());
return bucketValues_[bucketNumber];
}

private:
std::vector<uint64_t> bucketValues_; // 初始化耗时值
uint64_t maxBucketValue_; // 耗时最大
uint64_t minBucketValue_; // 耗时最小
// 初始化耗时区间,以[bucketValues_[i-1],bucketValues_[i]]
std::map<uint64_t, uint64_t> valueIndexMap_;
};
  • 保存每个指标的各个维度的data数据,比如请求总数,最大,最小,上面数据结构中 valueIndexMap_各个区间的请求数(方便计算分位数)等
struct HistogramStat {
......
// 计算统计信息的代码,最大,最小等
void Clear();
bool Empty() const;
void Add(uint64_t value);
void Merge(const HistogramStat& other);
inline uint64_t min() const { return min_.load(std::memory_order_relaxed); }
inline uint64_t max() const { return max_.load(std::memory_order_relaxed); }
inline uint64_t num() const { return num_.load(std::memory_order_relaxed); }
inline uint64_t sum() const { return sum_.load(std::memory_order_relaxed); }
inline uint64_t sum_squares() const {
return sum_squares_.load(std::memory_order_relaxed);
}
inline uint64_t bucket_at(size_t b) const {
return buckets_[b].load(std::memory_order_relaxed);
}
// 计算分位数相关的代码,p50,平均值,标准差
double Median() const;
double Percentile(double p) const;
double Average() const;
double StandardDeviation() const;
// 通过这个函数,将获取到的各个数据给到上文最开始的数据结构HistogramData
// 暴露给用户。
void Data(HistogramData* const data) const;
std::string ToString() const;
// To be able to use HistogramStat as thread local variable, it
// cannot have dynamic allocated member. That's why we're
// using manually values from BucketMapper
std::atomic_uint_fast64_t min_;
std::atomic_uint_fast64_t max_;
std::atomic_uint_fast64_t num_;
std::atomic_uint_fast64_t sum_;
std::atomic_uint_fast64_t sum_squares_;
std::atomic_uint_fast64_t buckets_[109]; // 109==BucketMapper::BucketCount()
const uint64_t num_buckets_;
};

到现在,基础的数据结构就这么多,接下来通过两种维度的数据来看一下rocksdb 如何利用以上数据结构,完成自己的打点代码设计的。

打点代码设计

以如下两个指标为例:

  • 读请求耗时统计:rocksdb.db.get.micros
rocksdb.db.get.micros P50 : 0.000000 P95 : 0.000000 P99 : 0.000000 P99.9 : 0.000000 P99.99 : 0.000000 P100 : 0.000000 COUNT : 0 SUM : 0

这是读指标数据,其中p99.9 和 p99.99是自己加的,原来并没有,可以看到总体的指标数据就是我们上文中数据结构中的指标。

  • Block_cache命中数统计:rocksdb.block.cache.hit
rocksdb.block.cache.hit COUNT : 0

请求数相关的指标就是单纯的个数统计,不会有分位数的统计,毕竟分位数只在有延时需求的场景才会有用。

耗时打点

针对​​rocksdb.db.get.micros​​ 指标,维护了一个直方图变量

enum Histograms : uint32_t {
DB_GET = 0, // 读耗时
DB_WRITE, // 写耗时
COMPACTION_TIME, // compaction 耗时
COMPACTION_CPU_TIME,
SUBCOMPACTION_SETUP_TIME,
...
}

按照我们的理解,一个函数的执行耗时 是 在函数开始时获取一个时间,函数运行结束后再获取一个时间,两个时间的差值就是这个函数的执行耗时,很简答。

而rocksdb 获取读耗时指标的代码如下:

Status DBImpl::GetImpl(const ReadOptions& read_options,
ColumnFamilyHandle* column_family, const Slice& key,
PinnableSlice* pinnable_val, bool* value_found,
ReadCallback* callback, bool* is_blob_index) {
assert(pinnable_val != nullptr);
PERF_CPU_TIMER_GUARD(get_cpu_nanos, env_); // perf context的统计
StopWatch sw(env_, stats_, DB_GET); // 统计读耗时
......
}

后面再没有其他的耗时计算了。是不是有点诧异,也就是rocksdb 通过读请求函数开始​​StopWatch​​对象的初始化,完成了整个读函数的耗时统计。

​StopWatch​​的代码如下,大家就能够看到Rocksdb 代码的设计精妙了。

构造StopWatch对象需要传入 基本的三个参数:

  • env_ , rocksdb维护的全局共享的环境变量
  • Stats_ ,statistics ,将获取到的时间添加到上文的三种数据结构中,参与运算
  • DB_GET, 直方图变量,表示读请求的指标;类似的还有DB_WRITE等
// 初始化代码如下
StopWatch(Env* const env, Statistics* statistics, const uint32_t hist_type,
uint64_t* elapsed = nullptr, bool overwrite = true,
bool delay_enabled = false)
: env_(env), // 全局环境变量,用来提供一个便捷的函数,后续主要用来调用时间函数 NowMicros()
statistics_(statistics), // 需要通过options.statistics初始化,否则默认为空,就不打开rocksdb的打点系统了
hist_type_(hist_type), // 直方图变量,DB_GET, DB_WRITE...
elapsed_(elapsed),
overwrite_(overwrite),
stats_enabled_(statistics &&
statistics->get_stats_level() >=
StatsLevel::kExceptTimers &&
statistics->HistEnabledForType(hist_type)),
delay_enabled_(delay_enabled),
total_delay_(0),
delay_start_time_(0),
start_time_((stats_enabled_ || elapsed != nullptr) ? env->NowMicros()// 起始时间
: 0) {}

也就是在StopWatch对象初始化完成时记录下了起始时间:

start_time_((stats_enabled_ || elapsed != nullptr) ? env->NowMicros()// 起始时间

因为StopWatch 是在GetImpl函数中创建的,属于函数局部变量,那想要获取到结束时间,只要这个函数退出,StopWatch的析构函数会被自动调用,也就是只需要在析构函数中调用获取结束时间即可。

~StopWatch() {
......
if (stats_enabled_) {
//计算结束时间,并将DB_GET和结束时间添加到直方图中
statistics_->reportTimeToHistogram(
hist_type_, (elapsed_ != nullptr)
? *elapsed_
: (env_->NowMicros() - start_time_));
}
}

到此已经拿到了Get请求的准确耗时了,简洁且优雅!!!

接下来就是拿着耗时,和请求类型添加到直方图中即可。

先看一下直方图中的原始数据形态:

** Level 0 read latency histogram (micros):
Count: 1805800 Average: 1.4780 StdDev: 8.70
Min: 0 Median: 0.8399 Max: 4026
Percentiles: P50: 0.84 P75: 1.40 P99: 2.32 P99.9: 5.10 P99.99: 9.75
------------------------------------------------------
[ 0, 1 ] 1075022 59.532% 59.532% ############
( 1, 2 ] 706790 39.140% 98.672% ########
( 2, 3 ] 18280 1.012% 99.684%
( 3, 4 ] 2601 0.144% 99.828%
( 4, 6 ] 2357 0.131% 99.958%
......

横线之上的指标很明显,之下的指标简单说一下,它就是我们数据结构选型中的​​HistogramBucketMapper​​​数据结构。
在​​​Percentiles​​之下 总共有四列(这里将做括号和右方括号算作一列,是一个hash桶)

  • 第一列 : 看作一个hash桶,这个hash桶表示一个耗时区间,单位是us
  • 第二列:一秒内产生的请求耗时命中当前耗时区间的有多少个
  • 第三列:一秒内产生的请求耗时命中当前耗时区间的个数占总请求个数的百分比
  • 第四列:累加之前所有请求的百分比

耗时打点会简化输出如下:

Rocksdb 的优秀代码(二)-- 工业级 打点系统 实现分享_直方图

回到我们拿着DB_GET和time 汇报到直方图中,通过如下函数

virtual void reportTimeToHistogram(uint32_t histogramType, uint64_t time) {
//表示禁止打开直方图,也就是上文中说的options.statistics参数未初始化,使用默认的。
if (get_stats_level() <= StatsLevel::kExceptTimers) {
return;
}
// 添加直方图
recordInHistogram(histogramType, time);
}

最终调用到​​StatisticsImpl::recordInHistogram​​​函数, 更新直方图中​​HistogramStat​​数据结构中的各个指标。

void StatisticsImpl::recordInHistogram(uint32_t histogramType, uint64_t value) {
assert(histogramType < HISTOGRAM_ENUM_MAX);
if (get_stats_level() <= StatsLevel::kExceptHistogramOrTimers) {
return;
}
// 将指标添加到histogram_中,并计算该时间在直方图所属bucket,将bucket计数自增。
// 除了添加到直方图bucket,还会更新总时间,总请求数等指标。
per_core_stats_.Access()->histograms_[histogramType].Add(value);
if (stats_ && histogramType < HISTOGRAM_ENUM_MAX) {
// 留给用户态的接口,如果用户不继承实现针对该指标的处理,则不会做任何事情。
stats_->recordInHistogram(histogramType, value);
}
}

如果用户想要自己做一些请求统计,比如统计总共的打点次数。可以通过如下方式,用户态继承statistics类即可:

class DummyOldStats : public Statistics { public: ...... void measureTime(uint32_t /*histogram_type*/, uint64_t /*count*/) override { num_mt++; } ... }

再看一下​​per_core_stats_.Access()->histograms_[histogramType].Add(value);​​ 中的Add函数,很简单的指标更新。

这个函数处于所有指标调用的必经路径,可以看到这里设计的时无锁方式执行逻辑。也就是认为 并发Get场景下的直方图更新,其实顺序性并没有那么重要,因为耗时会置放到它所属的时间bucket中,请求数自增,并不是严格排序方式获取分位数指标的。

void HistogramStat::Add(uint64_t value) {
// 获取value-time 以及 耗时时间所处的直方图索引
// 拿着index,更新对应的buckets的个数
const size_t index = bucketMapper.IndexForValue(value);
assert(index < num_buckets_);
buckets_[index].store(buckets_[index].load(std::memory_order_relaxed) + 1,
std::memory_order_relaxed);

// 更新最小值
uint64_t old_min = min();
if (value < old_min) {
min_.store(value, std::memory_order_relaxed);
}

// 更新最大值
uint64_t old_max = max();
if (value > old_max) {
max_.store(value, std::memory_order_relaxed);
}

// 更新总的请求个数
num_.store(num_.load(std::memory_order_relaxed) + 1,
std::memory_order_relaxed);
// 更新总耗时
sum_.store(sum_.load(std::memory_order_relaxed) + value,
std::memory_order_relaxed);
sum_squares_.store(
sum_squares_.load(std::memory_order_relaxed) + value * value,
std::memory_order_relaxed);
}

到此,一次Get请求的耗时信息已经添加到了直方图中。需要注意的是,此时并没有计算对应的分位数指标,仅仅更新了buckets_。

当调用 输出直方图的函数时,会进行分位数的计算,​​DBImpl::PrintStaistics()​​函数中

void DBImpl::PrintStatistics() {
auto dbstats = immutable_db_options_.statistics.get();
if (dbstats) {
// 打印直方图
ROCKS_LOG_INFO(immutable_db_options_.info_log, "STATISTICS:\n %s",
dbstats->ToString().c_str());
}
}

主要是就是直方图的ToString函数中,计算分位数,并将计算的结果填充到​​HistogramData​​数据结构中,后续直接打印。

std::string StatisticsImpl::ToString() const {
MutexLock lock(&aggregate_lock_);
......
// 打印所有指标的耗时数据
for (const auto& h : HistogramsNameMap) {
assert(h.first < HISTOGRAM_ENUM_MAX);
char buffer[kTmpStrBufferSize];
HistogramData hData;
// 计算分位数
getHistogramImplLocked(h.first)->Data(&hData);
// don't handle failures - buffer should always be big enough and arguments
// should be provided correctly
int ret =
snprintf(buffer, kTmpStrBufferSize,
"%s P50 : %f P95 : %f P99 : %f P100 : %f COUNT : %" PRIu64
" SUM : %" PRIu64 "\n",
h.second.c_str(), hData.median, hData.percentile95,
hData.percentile99, hData.max, hData.count, hData.sum);
if (ret < 0 || ret >= kTmpStrBufferSize) {
assert(false);
continue;
}
res.append(buffer);
}
if (event_tracer_) res.append(event_tracer_->ToString());
res.shrink_to_fit();
return res;
}

其中​​getHistogramImplLocked(h.first)->Data(&hData);​​​计算分位数,并将结果添加到​​HistogramData​​数据结构。

void HistogramStat::Data(HistogramData * const data) const {
assert(data);
data->median = Median();
data->percentile95 = Percentile(95);
data->percentile99 = Percentile(99);
data->max = static_cast<double>(max());
data->average = Average();
data->standard_deviation = StandardDeviation();
data->count = num();
data->sum = sum();
data->min = static_cast<double>(min());
}

关于分位数计算 细节可以看 上文中提到的Rocksdb分位数实现链接 。​​Rocksdb 的优秀代码(一) – 工业级分桶算法实现分位数p50,p99,p9999​​

请求计数打点

这里就比较简单了,针对计数打点,同样维护了一个直方图枚举类型:

enum Tickers : uint32_t {
// total block cache misses
// REQUIRES: BLOCK_CACHE_MISS == BLOCK_CACHE_INDEX_MISS +
// BLOCK_CACHE_FILTER_MISS +
// BLOCK_CACHE_DATA_MISS;
BLOCK_CACHE_MISS = 0,
// total block cache hit
// REQUIRES: BLOCK_CACHE_HIT == BLOCK_CACHE_INDEX_HIT +
// BLOCK_CACHE_FILTER_HIT +
// BLOCK_CACHE_DATA_HIT;
BLOCK_CACHE_HIT,
// # of blocks added to block cache.
BLOCK_CACHE_ADD,
......
}

其中BLOCK_CACHE_HIT属于其中计数类型的一种,主要是在更新Cache的代码中使用​​RecordTick​​函数来更新请求计数。

void BlockBasedTable::UpdateCacheHitMetrics(BlockType block_type,
GetContext* get_context,
size_t usage) const {
......
// 命中BlockCache,这里进行BLOCK_CACHE_HIT 更新指标
// 默认使用RecordTick,即使用户配置了get_context,也会用RecordTick来更新指标
if (get_context) {
++get_context->get_context_stats_.num_cache_hit;
get_context->get_context_stats_.num_cache_bytes_read += usage;
} else {
RecordTick(statistics, BLOCK_CACHE_HIT);
RecordTick(statistics, BLOCK_CACHE_BYTES_READ, usage);
}
void StatisticsImpl::recordTick(uint32_t tickerType, uint64_t count) {
assert(tickerType < TICKER_ENUM_MAX);
// 对直方图变量中的类型使用 松散内存序 进行自增
per_core_stats_.Access()->tickers_[tickerType].fetch_add(
count, std::memory_order_relaxed);
if (stats_ && tickerType < TICKER_ENUM_MAX) {
stats_->recordTick(tickerType, count);
}
}

后续打印的话也是使用类似耗时打印的​​StatisticsImpl::ToString()​​函数进行打印。

以上除了关键路径的耗时以及请求统计,后续的直方图相关的指标的计算都是通过后台thread_dump_stats_ 进行异步更新。

打点总结

Rocksdb 的打点系统 中核心是耗时打点,使用了巧妙的类的构造和析构 完成轻量耗时统计,并通过异步线程完成直方图的计算和更新。

尤其是分位数的计算,使用hash桶方式仅仅统计 耗时时间段的请求计数 来完成分位数的预估。整个打点系统经历过大量工业级应用的锤炼,可以说是非常优雅的系统代码设计,值得学习借鉴。


标签:std,uint64,打点,const,_.,--,Rocksdb,耗时,直方图
From: https://blog.51cto.com/u_13456560/5823157

相关文章

  • 第五章18
    【题目描述】 如果整数A的全部因子(包括1,不包括A本身)之和等于B;且整数B的全部因子(包括1,不包括B本身)之和等于A,则将整数A和B称为亲密数。输入一个正整数n,输出n以内的全......
  • react生命周期(详细版)
    首先生命周期分为三个阶段:挂载:已经插入真实dom渲染(更新):正在被重新渲染卸载:已经移出真实dom一、挂载:在组件实例被创建并插入到dom中时,生命周期调用顺序......
  • t-testdisk 分区恢复
    安装配置好yum源,直接使用yum​​yuminstalltestdisk-y​​​安装好之后直接运行​​testdisk​​或者​​testdisk/dev/sdx​​进入如下界面,选择​​create​​进行日......
  • Delphi XE DataSnap.DSServer[1]介绍
    DelphiXEDataSnap.DSServer[1]介绍定义实现DataSnap回调隧道的类、要通过这些隧道发送的项、事件、隧道管理器、提供程序模块适配器、管理传输和服务器类的创建和生存......
  • 实验二 逻辑回归与算法实验
    【实验目的】理解逻辑回归算法原理,掌握逻辑回归算法框架;理解逻辑回归的sigmoid函数;理解逻辑回归的损失函数;针对特定应用场景及数据,能应用逻辑回归算法解决实际分类问题......
  • 如何转载到新浪博客
    ​ 官方网站:泽优文档助手 产品交流群:​ 扫码加群:​ 1.进入文章列表页面,点击需要转载的文章标题​2.选中文章内容,右键点击复制​3.打开新浪博客......
  • kotlin 注解声明与使用
    前言函数的调用需要知道函数所在的类,函数的入参个数和参数类型,注解和反射可以跳过这个限制,注解和反射可以编写事先未知的任意类代码。注解可以为类库赋予特定的语义,反射可以......
  • BIOS三种硬盘模式
    文章目录​​IDE模式​​​​RAID模式​​​​AHCI模式​​IDE模式IDE表示硬盘的传输接口,我们常说的IDE接口,也叫ATA(AdvancedTechnologyAttachment)接口,现在PC机使用的硬盘......
  • 关于OpeSSL生成自签名证书-包含完整证书链生成(全网最全)
    相信大家对证书已经有一个比较直关的了解,这里只讲如何创建自签证书,关于openssl的使用或者证书的相关内容,此处不做过多讲解废话不多说,直接上手。一般证书分为根证......
  • 全国行政区划
    前言闲着整理了一下全国行政区划图。......