首页 > 其他分享 >VictoriaMetrics的指标流聚合能力应用

VictoriaMetrics的指标流聚合能力应用

时间:2023-12-30 11:02:54浏览次数:42  
标签:5m 聚合 sum req VictoriaMetrics 指标 rate total svr

原文出自:

https://blog.mickeyzzc.tech/posts/opentelemetry/stream-metrics-one/ 


社区VM对指标流聚合能力分析与问题

一、VictoriaMetrics开源项目的原生能力

VictoriaMetrics项目中的流聚合能力是从1.86版本开始整合到vmagent的,具体可参考: https://github.com/VictoriaMetrics/VictoriaMetrics/issues/3460  从源码分析来看,流集合能力如图:

VictoriaMetrics的指标流聚合能力应用_Prometheus

核心计算的代码在pushSample函数中有描述:

func (as *totalAggrState) pushSample(inputKey, outputKey string, value float64) {
	currentTime := fasttime.UnixTimestamp()
	deleteDeadline := currentTime + as.intervalSecs + (as.intervalSecs >> 1)
again:
	v, ok := as.m.Load(outputKey)
	if !ok {
		v = &totalStateValue{
			lastValues: make(map[string]*lastValueState),
		}
		vNew, loaded := as.m.LoadOrStore(outputKey, v)
		if loaded {
			v = vNew
		}
	}
	sv := v.(*totalStateValue)
	sv.mu.Lock()
	deleted := sv.deleted
	if !deleted {
		lv, ok := sv.lastValues[inputKey]
		if !ok {
			lv = &lastValueState{}
			sv.lastValues[inputKey] = lv
		}
		d := value
		if ok && lv.value <= value {
			d = value - lv.value
		}
		if ok || currentTime > as.ignoreInputDeadline {
			sv.total += d
		}
		lv.value = value
		lv.deleteDeadline = deleteDeadline
		sv.deleteDeadline = deleteDeadline
	}
	sv.mu.Unlock()
	if deleted {
		goto again
	}
}


二、流聚合能力的一般运用分析

首先先看看流聚合后的时序图:

VictoriaMetrics的指标流聚合能力应用_Prometheus_02

这时候,我们看看时序数据的理论形态

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_03

基于理论形态的理想流聚合形态

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_04

在实际状态下的流聚合形态

VictoriaMetrics的指标流聚合能力应用_Prometheus_05

三、原生流聚合能力的日常问题

1、采集断点问题

在现实世界是更残酷的,某个时间断点是无可避免,原因很多,有网络上的、有被采集服务的性能问题等。

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_06

高精度的流聚合断点问题在大数计算情况下,影响是很极端的:

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_07

2、巨量数据的算力架构

流聚合没有历史数据细节的状态保存,因此性能极优,但是再优性能的服务也存在单点的极限值。在处理单点无法处理的数据量级情况下,分布式算力结构就会存在一系列问题要解决:


其中一个问题是:vmagent自带采集能力是否可用?

在实际测试过程中,启动vmagent分片加副本采集能力结合实时流聚合,资源使用大幅增加,在量级极大的情况下频繁出现采集连续断点的问题,恶化了断点导致的计算结果差异问题。

VictoriaMetrics的指标流聚合能力应用_Prometheus_08


现阶段的vmagent服务和监控平台结合的架构图参考如下:

VictoriaMetrics的指标流聚合能力应用_Prometheus_09

其次:需计算的Sample数据分别给哪个算力点计算?

同时思考:多个算力点计算后的同维度指标集因同维度同时间窗口但不同结果值导致后到值丢弃的问题如何解决?(触发乱序指标处理逻辑)

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_10

最后:分布式计算的资源均衡问题?

同时思考:插入任务id解决计算点同维度分辨问题后再次引入新维度如何解决?

VictoriaMetrics的指标流聚合能力应用_Prometheus_11


分布式流聚合的网关设计与实现

通过《指标流聚合系列一:社区VM对指标流聚合能力分析与问题》分析了目前业界方案结合实际场景遇到的问题分析后,这一节会有针对性的对问题一一解决。 通过源码分析有两个关键部分:

时间窗口的范围:

//窗口的范围是间隔设置加上间隔向右位移1位
currentTime := fasttime.UnixTimestamp()
deleteDeadline := currentTime + as.intervalSecs + (as.intervalSecs >> 1)
  • 计算窗口的逻辑:
// 从缓存读取需聚合的指标
v, ok := as.m.Load(outputKey)
if !ok {
	v = &totalStateValue{
		lastValues: make(map[string]*lastValueState),
	}
	vNew, loaded := as.m.LoadOrStore(outputKey, v)
	if loaded {
		v = vNew
	}
}
sv := v.(*totalStateValue)
sv.mu.Lock()
deleted := sv.deleted
if !deleted {
	// 从聚合后指标的缓存里面查找流入的时间线的记录值
	lv, ok := sv.lastValues[inputKey]
	if !ok {
		// 如果没有记录值,则取原始值作为记录值
		lv = &lastValueState{}
		sv.lastValues[inputKey] = lv
	}
	d := value
	if ok && lv.value <= value {
		// 如果有记录值,则取新值与记录值的差值作为聚合后指标的追加值
		d = value - lv.value
	}
	if ok || currentTime > as.ignoreInputDeadline {
		sv.total += d
	}
	lv.value = value
	lv.deleteDeadline = deleteDeadline
	sv.deleteDeadline = deleteDeadline
}

从源码解读,流聚合逻辑只对时间窗口做了简易的周期判断,在流入指标因各种原因导致延迟抵达的问题导致计算值被放大没有太多逻辑处理。 这时候,我们需要一个前置模块来解决一些问题,也因vmgateway是企业组件,所以我们开发了一个属于自己的分布式流聚合的网关vm-receive-route

分布式流聚合网关处理的问题

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_12

1、异步

大部分的 remote write项目  都是同步转发的。比如 prometheus-kafka-adapter  就是等kafka完成数据生产逻辑后才完成整个写流程,从而处理下一批remote write的数据。 但是流计算对数据处理是有窗口限制的,如果用同步逻辑阻塞在这里,就会影响性能,导致后续的时间sample会延迟,延迟错过了流计算的时间窗口的话,就会出现计算偏差。所以这里适合异步转发。

VictoriaMetrics的指标流聚合能力应用_Prometheus_13

2、时间窗口的过滤

因流聚合逻辑已经对时间线的差值做了前后大小的判断,这里就不需要引进 out-of-order算法  网关这里只需要配合流聚合逻辑的时间窗口做sample过滤丢弃则可。 主要解决因网络导致Prometheus重试发送大量积压旧sample影响实时值的计算结果,也解决了Prometheus重试大量积压sample引发的资源性能问题。

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_14

3、维度控制

由于流聚合组件会给每条聚合后时间线插入一个节点ID来区分label。但是随着节点的横向扩容,这个label的维度也会随之增加。这里需要有一种控制维度的能力,并且能同时把时间线按维度ID来给不同的节点处理。后面我们设计了一个双重hashmod调度分配任务算法来解决这类问题。

VictoriaMetrics的指标流聚合能力应用_Prometheus_15

把标记taskid的能力前置到网关,这样就可以无视整个结构的横向扩容的节点数对任务ID维度的影响

VictoriaMetrics的指标流聚合能力应用_VictoriaMetrics_16


程序流程逻辑图

VictoriaMetrics的指标流聚合能力应用_Prometheus_17

线上环境架构图

VictoriaMetrics的指标流聚合能力应用_Prometheus_18


Record Rule维度任务生成器

流聚合计算是一种实时处理和分析大量数据流的技术。其主要目的是从高速、连续不断的数据流中提取有价值的信息,例如:计算平均值、求和、最大值、最小值等。流聚合计算通常会在内存中进行,以保持较低的延迟和高吞吐量。

流聚合计算的实现通常包含以下几个关键部分:

  1. 数据源和数据接收器:设定和监控数据流,如:日志、网络数据包、传感器数据等,将数据流分为多个小批次。
  2. 窗口操作:数据流会被分成一系列固定或滑动窗口。每个窗口内的数据会进行预先定义的聚合操作。
  3. 聚合函数:对窗口内的数据进行各种操作,例如:计数、求和、均值、最大/最小值等。
  4. 输出:将聚合结果输出或存储,以备进一步处理或实时数据可视化。

在指标流聚合中,该能力是对单一指标做高效的降维计算,但是在现实中要描述复杂场景是需要对多指标来结合函数计算的。

流聚合可以高效解决以下聚合过滤req_path的字段

  • 聚合前:
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="30021",dis_svr="192.168.2.3",dis_port="8080",code="202",req_path="/xxxx/yyyy?abc=exg"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="30023",dis_svr="192.168.2.3",dis_port="8080",code="202",req_path="/xxxx/yyyy?abc=sdf"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="10021",dis_svr="192.168.2.3",dis_port="8080",code="202",req_path="/xxxx/yyyy?abc=fasdfa"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="20210",dis_svr="192.168.2.3",dis_port="8080",code="202",req_path="/xxxx/yyyy?abc=asdfe"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="20211",dis_svr="192.168.2.3",dis_port="8080",code="202",req_path="/xxxx/yyyy?abc=sfadsf"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="21210",dis_svr="192.168.2.3",dis_port="8080",code="500",req_path="/xxxx/yyyy?abc=caresaf"}
a_http_req_total{zone="bj",src_svr="192.168.1.2",src_port="30121",dis_svr="192.168.2.3",dis_port="8080",code="400",req_path="/xxxx/yyyy?abc=werads"}
  • 聚合后:
agg_a_http_req_total{zone="bj",src_svr="192.168.1.2",dis_svr="192.168.2.3",dis_port="8080",code="202"}
agg_a_http_req_total{zone="bj",src_svr="192.168.1.2",dis_svr="192.168.2.3",dis_port="8080",code="500"}
agg_a_http_req_total{zone="bj",src_svr="192.168.1.2",dis_svr="192.168.2.3",dis_port="8080",code="400"}

但是我们最终要做展示的是某个目标地址的成功率:

sum by (dis_svr)
	(
		rate(a_http_req_total{code=~"2.*"}[5m])
	) 
/ 
sum by (dis_svr)
	(
		rate(a_http_req_total{}[5m])
	)

我们可以利用PrometheusRecord Rule来直接算聚合场景指标。

groups:
- name: a_http_req_total:sum:rate:5m
  rules:
  - expr: sum by (src_svr,dis_svr,code)
			  (
				  rate(a_http_req_total{}[5m])
			  )
	record: a_http_req_total:sum:rate:5m

但是Record Rule会把指标a_http_req_total的所有维度数据加载到内存,如果维度达到临界值就会触发内存OOM。即使没有达到临界值,该计算量也会随着维度增加以致计算结果点被延迟。 在实际生产环境中,istio_request_total的qps数据会延迟20分钟之久。 在结合流聚合计算把维度降低,使时间线从千万级别降低到万级别,也只是从20分钟的延迟降低到1-2分钟。 流聚合后的Record Rule的配置:

groups:
- name: agg_a_http_req_total:sum:rate:5m
  rules:
  - expr: sum by (src_svr,dis_svr,code)
			  (
				  rate(agg_a_http_req_total{}[5m])
			  )
	record: agg_a_http_req_total:sum:rate:5m

通过分析Rule模块的源码,我们可以做更细化的配置能力:

groups:
- name: agg_a_http_req_total:sum:rate:5m-2xx
  rules:
  - expr: sum by (src_svr,dis_svr,code)
			  (
				  rate(agg_a_http_req_total{code=~"2.**"}[5m])
			  )
	record: agg_a_http_req_total:sum:rate:5m
- name: agg_a_http_req_total:sum:rate:5m-4xx
  rules:
  - expr: sum by (src_svr,dis_svr,code)
			  (
				  rate(agg_a_http_req_total{code=~"4.**"}[5m])
			  )
	record: agg_a_http_req_total:sum:rate:5m
- name: agg_a_http_req_total:sum:rate:5m-5xx
  rules:
  - expr: sum by (src_svr,dis_svr,code)
			  (
				  rate(agg_a_http_req_total{code=~"5.**"}[5m])
			  )
	record: agg_a_http_req_total:sum:rate:5m

这样我们就可以通过对某个维度标签拆分的查询,以达到生成同样的新指标并发处理能力。

问题是,生产的维度标签大多数是动态变化的,我们怎么去动态生成这种按维度标签拆分的查询来实现并发Record Rule呢?我们需要一个对标签元数据的管理系统来对标签维度元数据进行跟踪和管理。 这时候我们实现了一个小型的元数据watch模块rule build模块来解决该问题。 该组件ruler-handle-process的配置是这样子的:

recode_rules:
- interval: 5m
  recode_to: istio_requests_total:sum:rate:5m
  metric_name: istio_requests_total
  aggr_type: sum
  vector_type: rate
  vector_range: 5m
  group_by_and_filter:
  - source_workload
  - destination_workload
  - cluster
  - namespace
  group_by:
  - response_code
  - namespace
  - source_workload_namespace
  - destination_workload_namespace
  - destination_service_name
  - cluster
  - reporter
  filter_by:
    cluster: "k8s-hw-bj-xxxxxx"
  with_out:
    source_workload: "ingressgateway-workflows"

ruler-handle-process就会watch指标名"istio_requests_total"下的response_codenamespacesource_workload_namespacedestination_workload_namespacedestination_service_nameclusterreporter的维度组合来生成一堆Record Rule规则。 结合Rule组件来实现并发计算,我们就可以把计算延迟缩短到秒级完成。

groups:
- name: istio_requests_total:sum:rate:5m-7218756fe8a0bc327e818812cefb02f7
  rules:
  - expr: sum by (request_protocol, grpc_response_status, response_code, svr_response_code,
      namespace, source_workload_namespace, destination_workload_namespace, destination_service_name,
      cluster, reporter, source_workload, destination_workload, cluster, namespace)
      (rate(istio_requests_total{cluster="k8s-hw-bj-1-prod",destination_workload="skyaxe-778-flink",namespace="istio-ingress",source_workload="ingressgateway-streaming"}[5m]))
    record: istio_requests_total:sum:rate:5m
- name: istio_requests_total:sum:rate:5m-8e30244048f8d5519a6332f309578ed4
  rules:
  - expr: sum by (request_protocol, grpc_response_status, response_code, svr_response_code,
      namespace, source_workload_namespace, destination_workload_namespace, destination_service_name,
      cluster, reporter, source_workload, destination_workload, cluster, namespace)
      (rate(istio_requests_total{cluster="k8s-hw-bj-1-prod",destination_workload="t-bean-portal",namespace="coin",source_workload="unknown"}[5m]))
    record: istio_requests_total:sum:rate:5m
- name: istio_requests_total:sum:rate:5m-ea2d81ce1c35a7ba5a72b9e23fe7faf6
  rules:
  - expr: sum by (request_protocol, grpc_response_status, response_code, svr_response_code,
      namespace, source_workload_namespace, destination_workload_namespace, destination_service_name,
      cluster, reporter, source_workload, destination_workload, cluster, namespace)
      (rate(istio_requests_total{cluster="k8s-hw-bj-1-prod",destination_workload="wefly-ad-report",namespace="wf",source_workload="wefly-app-packages"}[5m]))
    record: istio_requests_total:sum:rate:5m

标签:5m,聚合,sum,req,VictoriaMetrics,指标,rate,total,svr
From: https://blog.51cto.com/mickeyzzc/9039588

相关文章

  • 大厂性能测试监控指标及分析调优指南
    一、哪些因素会成为系统的瓶颈CPU:如果存在大量的计算,他们会长时间不间断的占用CPU资源,导致其他资源无法争夺到CPU而响应缓慢,从而带来系统性能问题,例如频繁的FullGC,以及多线程造成的上下文频繁的切换,都会导致CPU繁忙,一般情况下CPU使用率<75%比较合适。内存:Java内存一般是通过jvm......
  • 第六十天 正反向、聚合、分组、F与Q、ORM查询
    昨日内容查询常见关键字1.filter()2.all()3.get()4.first()5.last()6.values()7.values_list()8.order_by()9.distinct()10.exclude()11.exists()12.count()13.reverse()14.raw()神奇的双下划线查询__gt__gte__lt__lte__in__range__contains__icontains......
  • 浅谈10kV站所柜内运行状态及环境指标监测管理平台分析
    安科瑞张田田摘要:在整个电能管理系统中,配电室综合监控占据着重要的位置。现阶段,配电室通常均运用无人值守、定时巡查制度,此方式不仅需要投入诸多的物力与人力,同时也不能实时监控配电室的安全与环境。而配电室环境的可靠性与稳定性直接影响着变压器等设备的正常运行。对此,主要对10kV......
  • 在SpringBoot中自定义指标并使用Prometheus监控报警
    公众号「架构成长指南」,专注于生产实践、云原生、分布式系统、大数据技术分享在10分钟教你使用Prometheus监控SpringBoot工程中介绍了如何使用Prometheus监控SpringBoot提供的默认指标,这篇介绍如何自定义业务指标,并使用Prometheus进行监控并报警,同时在Grafana进行展现示例......
  • LLM评估:通过7大指标监测并评估大语言模型的表现
    编者按:如今,大模型及相关的生成式人工智能技术已经成为科技产业变革的新焦点,但大模型存在一些风险(容易产生偏见内容、虚假信息),其行为难以预测和控制。因此,如何持续监控和评估大模型行为以降低这些风险成为当下产学研各界的研究难点。本文作者通过分析ChatGPT在35天内对一组固定......
  • 聚合支付项目-18
    2.4商户注册2.4.1系统设计商户拿到获取的验证码即可提交注册信息,完成商户注册,本节完成商户注册功能。商户注册信息向三个地方写入数据,如下图:当前阶段暂时只向商户表写入数据,待接入SaaS系统时向员工表、SaaS系统写入。2.4.2商户服务-注册商户(接口②)商户服务提供商户注册......
  • [转发] Go pprof内存指标含义备忘录
    原文链接Gopprof内存指标含义备忘录最近组内一些Go服务碰到内存相关的问题,所以今天抽时间看了下Gopprof内存指标的含义,为后续查问题做准备。内容主要来自于Go代码中对这些字段的注释,加自己的理解。理解不对的地方欢迎指正。//https://github.com/golang/go/blob/master/src......
  • SLA阿里云,腾讯云,华为云服务测量指标
    SLA的由来在云计算时代,越来越多企业的服务迁移到云上,各大云服务厂商有自己服务发布的SLA,SLA是服务提供商与客户之间定义的正式承诺。我们使用云服务提供商为我们提供的APP或者网站,如果出现购物无法下单、看视频打不开类似的问题,会严重影响用户体验。如果故障持续的时间比较久,那......
  • 学会这个指标,你就是财务专家!
     巴菲特曾说过,“如果只能选择一个指标来衡量公司经营业绩的话,那就选ROE(净资产收益率)吧。”1912年,杜邦公司的一名名叫布朗的销售人员向公司管理层递交了一份有关公司运营效率问题的报告,该报告创造性的提出“要分析用公司用自己的钱赚取的利润率”的论点,并且他将这个指标......
  • 迈向智能制造的必经之路——设备效率指标分析
    ​1背景    随着市场竞争的日益激烈,工业制造商要想持续获得高的经济效益,最大化地挖掘和改善生产车间的生产效率显得极其重要,在某些方面,它甚至成为企业是否可以赢利的决定性因素。然而,在现在的制造业中,看似良好运作的生产车间实际上并没有以最好的状态进行工作,设备和操作人员......