首页 > 其他分享 >【实战分享】使用 Go 重构流式日志网关

【实战分享】使用 Go 重构流式日志网关

时间:2023-06-07 17:25:45浏览次数:44  
标签:网关 配置 流式 kafka go Go 日志 Kafka 客户端

项目背景

分享之前,先来简单介绍下该项目在流式日志处理链路中所处的位置。

f54baabbaacd21e9aacf9eb208bc543e.png
流式日志网关的主要功能是提供 HTTP 接口,接收 CDN 边缘节点上报的各类日志(访问日志/报错日志/计费日志等),将日志作预处理并分流到多个的 Kafka 集群和 Topic 中。

越来越多的客户要求提供实时日志支持,业务量的增加让机器资源的消耗也与日俱增,最先暴露出了流式日志处理链路的一大瓶颈——带宽资源。

可以通过给集群扩充更多的机器来提升集群总传输带宽,但基于成本考量,重中之重是先优化网关程序。

旧版网关项目

项目代号 Chopper ,其基于另一个内部 OpenResty 项目框架来开发的。其亮点功能有:支持从 Consul 、Redis 等其他外部系统热加载配置及动态生效;能够加载 Lua 脚本实现灵活的日志预处理能力。

其 Kafka 生产者客户端基于 doujiang24/lua-resty-kafka 实现。经过实践考验,Chopper 的吞吐量是满足现阶段需求的。

存在的问题

1. 关键依赖库的社区活跃度低

lua-resty-kafka 的社区活跃度较低,至今仍然处在实验阶段;而且它用作 Kafka 生产者客户端目前没有支持消息压缩功能,而这在其他语言实现的 Kafka 客户端中都是标准的选项。

2. 内存使用不节制

单实例部署配置 4 核 8 G,仅少量请求访问后,内存占用就稳定在 2G 而没有释放。

3. 配置文件可维护性差

实际线上用到 Consul 作为配置中心,采用篇幅很长的 JSON 格式配置文件,不利于运维。另外在 Consul 修改配置没有回退功能,是一个高风险操作。

好在目前日志网关的功能并不复杂,所以我们决定重构它。

新项目启动

众所周知, Go 语言拥有独特的高并发模型、较低的上手难度和丰富的第三方生态。而且我们小组成员都有 Go 项目的开发经验,所以我们选择使用基于 Go 语言的技术栈来重新构建 Chopper 项目,所以新项目命名为 chopper-go 。

需求梳理及概要设计

重新构建一个线上项目的基本原则是,功能上要完全兼容,最好能够实现线上服务的无缝升级替换。

原版核心模块的设计

Chopper 的核心功能是将接收到的 HTTP 请求分流到特定 Kafka 集群及其 Topic 中。

一、HTTP 接口部分

只开放了唯一一个对外的 API ,功能很简单:

请求方式:POST 请求路径:/log/repo/{repo_name} 请求体:  多行日志,满足 JSONL 格式(即每行一条 JSON ,多行按换行符 \n 分隔)。相应状态码:- 200:投递成功。- 5xx:投递失败需要重试。参数解释: - repo_name: 对应 repo 配置名称。

二、业务配置部分

每一类业务抽象为一个 repo 配置。Repo 配置由三部分构成:constraint、processor、kafka。constraint 是一个对象,可以配置对日志字段的一些约束条件,不满足条件的日志会被丢弃。processor 是一个列表,可以组合多个处理模块,程序将按顺序依次对请求中的每条日志进行处理。实现了如下几种 processor 类型:

  • decoder , 配置原始数据按哪种格式反序列化到 Lua table ,但只实现了 JSON decoder。
  • splitter,配置分隔日志字段的字符。
  • assigner,配置一组字段名映射关系,需要与 spliter 配合。
  • executer, 配置额外的 lua 脚本名称,通过动态加载其他 lua 脚本实现更灵活的处理逻辑。

kafka 是一个对象,可以配置当前业务相关联的 Kafka 集群名,默认投递的 Topic ,以及生产者客户端的工作模式(同步或者异步)。

新版本的改动HTTP

接口沿用原先的设计,在业务配置部分做了一些改动:

  • processor 改名为 executers ,实现几个通用功能的日志处理模块,方便组合使用。
  • kafka 配置中关联的不再是集群名,而是 Kafka 生产者客户端的配置标签。
  • 原先保存 kafka 集群连接配置信息的配置块,改为保存 kafka 生产者客户端的配置块,统一在一个配置块区域初始化所有用到的 kafka 生产者客户端。

一点妥协(做减法)

为了缩短新项目的开发周期,对原始项目的一些不太重要的特性我们做了一些取舍。

取消动态脚本功能

Go 是静态语言没有 Lua 动态语言那么灵活,要加载执行动态脚本有一定的实现难度,且日志处理性能没有保障。线上只有极少数业务在 processor 中配置了 executor,且这些 executor 的 Lua 脚本实现相近,完全可以抽取出通用的代码。

不支持外部配置中心

为了让发布和回退有记录可回溯,从 Consul 等配置中心热加载服务配置的功能我们也去掉了。利用好容器平台的金丝雀发布功能,就能将服务更新的影响降到最低。

不支持复杂的路由重写

OpenResty 项目内置 Nginx 可以利用 Nginx 强大的配置实现丰富的路由 rewrite 功能,就具体使用场景而言,我们只需要简单的路由映射即可。况且更复杂的需求也可以由上一级网关完成。

选择合适的开源库

Web 框架的选择

使用 Go 开发 Web 应用很快捷。我们参考了如下文章:

下列几款 Star 较多的 Go Web 框架都能满足我们需求:

  • kataras/iris
  • gin-gonic/gin
  • go-chi/chi
  • labstack/echo

他们性能都很好,最终我们选择了 Gin 。原因是用得多比较熟,而且文档看着舒服。

Kafka 生产者客户端的选择

社区中热度最高的几款 Go Kafka 客户端库:

  • segmentio/kafka-go
  • Shopify/sarama
  • confluentinc/confluent-kafka-go

实际上三款客户端库我们在历史项目中都使用过,其中 kafka-go 的 API 是三者中最简洁易用的,我们的多个消费端程序都是基于它实现的。

但是在 chopper-go 中仅需要用到生产者客户端,我们没有选择 kafka-go 。那是因为我们做了一些基准测试(https://github.com/sko00o/benchmark-kafka-go-clients ),发现 kafka-go 的生产者客户端存在性能风险:启用 async 模式时尽管消息发送特别快,但是内存占用也增长特别快。通过阅读源码我也找到了原因并向官方提了 issue(<https://github.com/segmentio/kafka-go/issues/819) ,但是作者觉得这设计没毛病,所以就不了了之了。

最终我们选择 sarama  ,一方面是性能很稳定,另一方面是它开放的> API 较多,但是用起来确实有点费劲。

测试框架的选择

程序的可靠性,一定需要测试来保证。除了编写小模块中编写单元从测试,我们对整个日志网关服务还要做集成测试。集成测试涉及到一些外部服务依赖,此项目中主要的外部依赖是 Kafka 和 Zookeeper。

利用 Docker 可以很方便的拉起测试环境,我们注意到了两款可以用来在 Go test 中编写集成测试的库:

  • ory/dockertest
  • testcontainers/testcontainers-go

使用下来,我们最终选择了 testcontainers-go,简单介绍下原因:

在编写集成测试时,我们需要有个等待机制来确保依赖服务的容器是否准备就绪,并以此控制测试流程,以及测试结束后需要把测试开启的临时容器都清理干净。

testcontainers-go  的设计要优于 dockertest 。testcontainers-go 提供一个 wait 子包,可以配置多种等待策略来确保依赖服务就绪,以及测试结束时它会调用一个特殊的名为 Ryuk 的容器来确保测试容器都被关闭。相对而言,dockertest 要简陋不少。

需要注意的是,在 CI 环境运行集成测试都需要确保 ci-runner 支持 DinD ,否则运行 go test 会失败。

项目开发

项目开发过程中基本按照需求来实现没有太多难点。这里分享踩到的几个坑。

循环中变量的引用问题

在测试中发现,Kafka 生产者没有按期望把消息投递到指定的 Kafka 集群。

经过排查到如下代码:

func New(cfg Config) (*Manager, error) {
            var newProducers = make(NewProducerFuncs)
            for name, kCfg := range cfg.Mapping {
            newProducers[name] = func() (kafka.Producer, error) { return kafka.New(kCfg) }
            }
            // 略
   }

其作用是将配置每个 Kafka 生产者配置先保存为一个函数闭包,待后续初始化 repo 的时候再初始化生产者客户端。

经验丰富的同学可以发现,for 循环的 kCfg 变量其实是指向迭代对象的地址,整个循环下来所有的函数闭包中用到的 kCfg 都指向 cfg.Mapping 的最后一个迭代值。

解决办法很简单,先做一遍变量拷贝即可:

func New(cfg Config) (*Manager, error) {
            var newProducers = make(NewProducerFuncs)
            for name, kCfg := range cfg.Mapping {
            newProducers[name] = func() (kafka.Producer, error) { return kafka.New(kCfg) }
            }
            // 略
   }

这是个挺容易碰到的问题,参考 https://colobu.com/2022/10/04/redefining-for-loop-variable-semantics/

Go 也有可能在未来将循环变量的语义从 per-loop 改成 per-iteration。

Sarama 客户端的一点坑

对于重要的日志数据,我们希望在 HTTP 请求返回时明确反馈是否成功写入 Kafka 。那么最好将 Kafka 生产者客户端配置为同步模式。

而同步模式的生产者要提高吞吐量,批量发送是必不可少的。

批量发送的配置位于 sarama.Config.Producer.Flush

cfg := sarama.NewConfig()
// 单次请求中消息数量的绝对上限
cfg.Producer.Flush.MaxMessages = batchMaxMsgs
// 能够触发请求发出的消息数量阈值
cfg.Producer.Flush.Messages = batchMsgs
// 能够触发请求发出的消息字节大小阈值
cfg.Producer.Flush.Bytes = batchBytes
// 批量请求的触发间隔时间
cfg.Producer.Flush.Frequency = batchTimeout

实践中发现,如果配置了 Flush.Bytes 而没有配置Flush.Frequency 就存在问题。如果消息大小始终未达阈值就不会触发批量请求,故 HTTP 请求就会阻塞直到客户端请求超时。

所以在配置参数的读取上,我们把这两个配置项做了关联,只有配置了 Flush.Frequency 才能让 Flush.Bytes 的配置生效。

项目上线

容器平台上的灰度技巧

原本图方便我们的路由转发规则配置的是全部路由直接转给同一组 Chopper 实例。

前面介绍了,每一个业务对应一个 repo,也就对应一个独立的请求路径。如果要灰度新的服务,需要对不同业务单独灰度,所以我们需要将不同业务的流量去分开。

好在容器平台的 k8s-ingress 使用的是 APISIX 作为接入网关,其路由匹配的优先级是:绝对匹配 > 前缀匹配。

只需要针对特定业务增加一条绝对匹配规则,就可以分离出特定业务的流量。

举个例子:原本的转发规则是:/* -> workers-0

我们新建一条转发规则:/log/repo/cdn-access -> workers-1

workers-0 和 workers-1 两组服务的配置完全相同。

然后我们对 workers-1 这组服务灰度发布新版程序。

逐步扩大

每灰度一条路由,我们可以从监控 Dashboard 上观察 HTTP 请求是否有异常,观察 Kafka 对应的 topic 的写入速率是否有异常抖动。

一旦观测到异常,立即停止灰度,然后检查程序运行日志,修正问题后重新开始灰度。

如果无异常,则逐步扩大灰度比例,直到完成服务更新。

总结起来就是灰度、观测、回退、修改循环推进,确保升级对每个业务都无感知。

完成发布

对比服务端资源占用情况

旧版 chopper (4C8G x 20) 灰度比例

10% -> 50%

b2471b3a3ee5f370d7bd8208ebc18aa3.png
chopper-go (4C4G x 20)

10% -> 50%

b84227fb39c1f521c7432098c8519070.png
50% -> 100%

2366fb0e5f2b799c888bde17adf41045.png
结论:新版日志网关的内存和 CPU 的资源使用都有显著降低。

服务端程序的资源占用情况

旧版 chopper 的 Kafka 客户端不支持消息压缩,chopper-go 发布中就配置了 Kafka 生产者消息的功能。压缩算法选择 lz4 ,观察两组消费服务的资源实用率的变化:消费服务0

  • 内存使用率 27% -> 40%
  • 网络流入 253Mbps -> 180Mbps

消费服务1

  • 内存使用率 28% -> 39%
  • 网络流入 380Mbps -> 267Mbps

结论:开启消息压缩功能后,消费实例的内存使用率普遍有增长,但内网传输带宽占用降低约 30%

更新计划

重构后的流式日志网关,尚有许多可优化空间,例如:

  • 采用更节省带宽的日志传输格式;
  • 进一步细化 Kafka topic 的分流粒度;
  • 日志消息处理阶段多级处理执行器之间增加缓存提高字段访问速度等等。

在丰富开源生态的加持下,该项目的优化迭代也将有条不紊地进行。

标签:网关,配置,流式,kafka,go,Go,日志,Kafka,客户端
From: https://www.cnblogs.com/upyun/p/17463973.html

相关文章

  • 分享近期研究的 6 款开源API网关
    随着API越来越广泛和规范化,对标准化、安全协议和可扩展性的需求呈指数级增长。随着对微服务的兴趣激增,这一点尤其如此,微服务依赖于API进行通信。API网关通过一个相对容易实现的解决方案来满足这些需求。 也许最重要的是,API网关充当用户和数据之间的中介。API网关是针对不正确......
  • go语言使用GRPC流处理模式
    go语言使用GRPC流处理模式标签(空格分隔):go,grpcproto文件syntax="proto3";packagefour_kinds_method.v1;optiongo_package="go-example/grpc/four_kinds_method/proto;four_kinds_method_pb";//gRPC允许您定义四种服务方法//1.一元RPC,其中客户端向服务器发送单......
  • 使用gorm进行数量统计【limit、offset对count的统计的影响】
    limit、offset对count的统计的影响错误示例1:请注意,如下例子中,Count放在了最后面,查询时,count方法也会加上Limit和offset这两个语句:global.DB.Limit(10).Offset(2).Find(&users).Count(&total)错误示例2:下面这种方法,看似没啥问题,实际上count的时候也会带上分页。varorm=glob......
  • Go内存逃逸
    前言很久以前就听过过内存逃逸这个词,最近了解了一下,才发现是个很简单的概念.只要把前言部分看完,就已经了解了.来吧…在介绍内存逃逸之前,我们先用C语言来引出这个概念.我们的进程在内存中有栈内存和堆内存的概念,栈内存是函数执行的局部内存,会随着函数的结束而全部......
  • spring cloud gateway网关(一)之网关路由
    1、gateway相关介绍在微服务架构中,系统往往由多个微服务组成,而这些服务可能部署在不同机房、不同地区、不同域名下。这种情况下,客户端(例如浏览器、手机、软件工具等)想要直接请求这些服务,就需要知道它们具体的地址信息,例如IP地址、端口号等。这种客户端直接请求服务的方式存在很......
  • Golang中如何控制goroutine的执行顺序?
    首先说明一下原理:前后协程之间通过通道去相互限制,后一个线程尝试去获取一个channel的值,当channel中没有值时,就会一直阻塞,而前一个协程则负责关闭channel,当前一个协程完成了这个操作,后一个协程才可以结束阻塞,继续执行。示例代码:packagemainimport( "fmt" "time")funcma......
  • 深度学习应用篇-计算机视觉-图像分类[2]:LeNet、AlexNet、VGG、GoogleNet、DarkNet模型
    深度学习应用篇-计算机视觉-图像分类[2]:LeNet、AlexNet、VGG、GoogleNet、DarkNet模型结构、实现、模型特点详细介绍1.LeNet(1998)LeNet是最早的卷积神经网络之一<sup>[1]</sup>,其被提出用于识别手写数字和机器印刷字符。1998年,YannLeCun第一次将LeNet卷积神经网络应用到图像分类......
  • 深度学习应用篇-计算机视觉-图像分类[2]:LeNet、AlexNet、VGG、GoogleNet、DarkNet模型
    深度学习应用篇-计算机视觉-图像分类[2]:LeNet、AlexNet、VGG、GoogleNet、DarkNet模型结构、实现、模型特点详细介绍1.LeNet(1998)LeNet是最早的卷积神经网络之一[1],其被提出用于识别手写数字和机器印刷字符。1998年,YannLeCun第一次将LeNet卷积神经网络应用到图像分类上,在手写数......
  • 传奇GOM引擎补丁安装教程图解,传奇pak补丁介绍
    gameofmir引擎的加密补丁格式是PAK格式,该补丁放入客户端的位置也和传统的补丁不一样,导致很多玩家补丁都打错了,最后游戏不显示和黑屏常规的补丁文件夹就这几个datamapwav自定义补丁文件夹名字如名字就是自定义正确的自定义补丁使用方法如下:先带大家认识一下自定义补丁目录,每个版本作......
  • 通过redis学网络(1)-用go基于epoll实现最简单网络通信框架
    本系列主要是为了对redis的网络模型进行学习,我会用golang实现一个reactor网络模型,并实现对redis协议的解析。系列源码已经上传githubhttps://github.com/HobbyBear/tinyredis/tree/chapter1redis的网络模型是基于epoll实现的,所以这一节让我们先基于epoll,实现一个最简单的服......