首页 > 系统相关 >如何修改 Nginx 源码实现 worker 进程隔离

如何修改 Nginx 源码实现 worker 进程隔离

时间:2022-10-26 22:02:33浏览次数:64  
标签:process isolation worker Nginx 源码 ngx port cycle

背景

最近我们线上网关替换为了 APISIX,也遇到了一些问题,有一个比较难解决的问题是 APISIX 的进程隔离问题。

APISIX 不同种类请求的互相影响

首先我们遇到的就是 APISIX Prometheus 插件在监控数据过多时影响正常业务接口响应的问题。当启用 Prometheus 插件以后,可以通过 HTTP 接口获取 APISIX 内部采集的监控信息然后展示到特定的看板中。

curl http://172.30.xxx.xxx:9091/apisix/prometheus/metrics

我们网关接入的业务系统非常繁杂,有 4000+ 路由,每次拉取 Prometheus 插件时,metrics 条数超过 50 万条,大小超过 80M+,这部分信息需要在 lua 层拼装发送,当请求时会造成处理此请求的 worker 进程 CPU 占用非常高,处理的时间超过 2s,导致此 worker 进程处理正常业务请求会有 2s+ 的延迟。

如何修改 Nginx 源码实现 worker 进程隔离_nginx

当时临时想到的措施是修改 Prometheus 插件,减少采集发送的范围和数量,先临时绕过了此问题。经过对 Prometheus 插件采集信息的分析,采集的数据条数如下。

407171 apisix_http_latency_bucket
29150 apisix_http_latency_sum
29150 apisix_http_latency_count
20024 apisix_bandwidth
17707 apisix_http_status
11 apisix_etcd_modify_indexes
6 apisix_nginx_http_current_connections
1 apisix_node_info

结合我们业务实际需要,去掉了部分信息,减少了部分延迟。

然后经 github issue 咨询,发现 APISIX 在商业版本中有提供此功能。因为还是想直接使用开源版本,此问题也暂时可以绕过,就没有继续深究下去。

但是后面又遇到了一个问题,就是 Admin API 处理在业务峰值处理不及时。我们使用 Admin API 来进行版本切换的功能,在一次业务高峰期时,APISIX 负载较高,影响了 Admin 相关的接口,导致版本切换偶发超时失败。

这里的原因显而易见,影响是双向的:前面的 Prometheus 插件是 APISIX 内部请求影响了正常业务请求。这里的是反过来的,正常业务请求影响了 APISIX 内部的请求。因此把 APISIX 内部的请求和正常业务请求隔离开就显得至关重要,于是花了一点时间实现了这个功能。

上述对应会生成如下的 ​​nginx.conf​​ 配置示例文件如下。

// 9091 端口处理 Prometheus 插件接口请求
server {
listen 0.0.0.0:9091;

access_log off;

location / {
content_by_lua_block {
local prometheus = require("apisix.plugins.prometheus.exporter")
prometheus.export_metrics()
}
}
}

// 9180 端口处理 admin 接口
server {
listen 0.0.0.0:9180;
location /apisix/admin {
content_by_lua_block {
apisix.http_admin()
}
}
}
// 正常处理 80 和 443 的业务请求
server {
listen 0.0.0.0:80;
listen 0.0.0.0:443 ssl;
server_name _;

location / {
proxy_pass $upstream_scheme://apisix_backend$upstream_uri;

access_by_lua_block {
apisix.http_access_phase()
}
}

修改 Nginx 源码实现进程隔离

对于 OpenResty 比较了解的同学应该知道,OpenResty 在 Nginx 的基础上进行了扩展,增加了 privilege

如何修改 Nginx 源码实现 worker 进程隔离_lua_02

privileged agent 特权进程不监听任何端口,不对外提供任何服务,主要用于定时任务等。

我们需要做的是增加 1 个或者多个 woker 进程,专门处理 APISIX 内部的请求即可。

Nginx 采用多进程模式,master 进程会调用 bind、listen 监听套接字。fork 函数创建的 worker 进程会复制这些 listen 状态的 socket 句柄。

如何修改 Nginx 源码实现 worker 进程隔离_nginx_03

Nginx 源码中创建 worker 子进程的伪代码如下:

void
ngx_master_process_cycle(ngx_cycle_t *cycle) {
ngx_setproctitle("master process");
ngx_start_worker_processes()
for (i = 0; i < n; i++) { // 根据 cpu 核心数创建子进程
ngx_spawn_process(i, "worker process");
pid = fork();
ngx_worker_process_cycle()
ngx_setproctitle("worker process")
for(;;) { // worker 子进程的无限循环
// ...
}
}
}
for(;;) {
// ... master 进程的无限循环
}
}

我们要做修改就是在 for 循环中多启动 1 个或 N 个子进程,专门用来处理特定端口的请求。

这里的 demo 以启动 1 个 worker process 为例,修改 ngx_start_worker_processes 的逻辑如下,多启动一个 worker process,命令名为 "isolation process" 表示内部隔离进程。

static void
ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type)
{
ngx_int_t i;
// ...
for (i = 0; i < n + 1; i++) { // 这里将 n 改为了 n+1,多启动一个进程

if (i == 0) { // 将子进程组中的第一个作为隔离进程
ngx_spawn_process(cycle, ngx_worker_process_cycle,
(void *) (intptr_t) i, "isolation process", type);
} else {
ngx_spawn_process(cycle, ngx_worker_process_cycle,
(void *) (intptr_t) i, "worker process", type);
}
}
// ...
}

随后在 ​​ngx_worker_process_cycle​​ 的逻辑对第 0 号 worker 做特殊处理,这里的 demo 使用 18080、18081、18082 作为隔离端口示意。

static void
ngx_worker_process_cycle(ngx_cycle_t *cycle, void *data)
{
ngx_int_t worker = (intptr_t) data;

int ports[3];
ports[0] = 18080;
ports[1] = 18081;
ports[2] = 18082;
ngx_worker_process_init(cycle, worker);

if (worker == 0) { // 处理 0 号 worker
ngx_setproctitle("isolation process");
ngx_close_not_isolation_listening_sockets(cycle, ports, 3);
} else { // 处理非 0 号 worker
ngx_setproctitle("worker process");
ngx_close_isolation_listening_sockets(cycle, ports, 3);
}
}

这里新写了两个方法

  • ​ngx_close_not_isolation_listening_sockets​​:只保留隔离端口的监听,取消其它端口监听
  • ​ngx_close_isolation_listening_sockets​​:关闭隔离端口的监听,只保留正常业务监听端口,也就是处理正常业务

​ngx_close_not_isolation_listening_sockets​​ 精简后的代码如下:

// used in isolation process
void
ngx_close_not_isolation_listening_sockets(ngx_cycle_t *cycle, int isolation_ports[], int port_num)
{
ngx_connection_t *c;
int port_match = 0;
ngx_listening_t* ls = cycle->listening.elts;
for (int i = 0; i < cycle->listening.nelts; i++) {

c = ls[i].connection;
// 从 sockaddr 结构体中获取端口号
in_port_t port = ngx_inet_get_port(ls[i].sockaddr) ;
// 判断当前端口号是否是需要隔离的端口
int is_isolation_port = check_isolation_port(port, isolation_ports, port_num);

// 如果不是隔离端口,则取消监听事情的处理
if (c && !is_isolation_port) {
// 调用 epoll_ctl 移除事件监听
ngx_del_event(c->read, NGX_READ_EVENT, 0);
ngx_free_connection(c);
c->fd = (ngx_socket_t) -1;
}

if (!is_isolation_port) {
port_match++;
ngx_close_socket(ls[i].fd); // close 当前 fd
ls[i].fd = (ngx_socket_t) -1;
}
}
cycle->listening.nelts -= port_match;
}

对应的 ​​ngx_close_isolation_listening_sockets​​ 关闭所有的隔离端口,只保留正常业务端口监听,简化后的代码如下。

void
ngx_close_isolation_listening_sockets(ngx_cycle_t *cycle, int isolation_ports[], int port_num)
{
ngx_connection_t *c;
int port_match;

port_match = 0;
ngx_listening_t * ls = cycle->listening.elts;

for (int i = 0; i < cycle->listening.nelts; i++) {
c = ls[i].connection;
in_port_t port = ngx_inet_get_port(ls[i].sockaddr) ;
int is_isolation_port = check_isolation_port(port, isolation_ports, port_num);

// 如果是隔离端口,关闭监听
if (c && is_isolation_port) {
ngx_del_event(c->read, NGX_READ_EVENT, 0);
ngx_free_connection(c);
c->fd = (ngx_socket_t) -1;
}

if (is_isolation_port) {
port_match++;
ngx_close_socket(ls[i].fd); // 关闭 fd
ls[i].fd = (ngx_socket_t) -1;
}
}
cle->listening.nelts -= port_match;
}

如此一来,我们就实现了 Nginx 基于端口的进程隔离。

效果验证

这里我们使用 18080~18082 端口作为隔离端口验证,其它端口作为正常业务端端口。为了模拟请求占用较高 CPU 的情况,这里我们用 lua 来计算多次 sqrt,以更好的验证 Nginx 的 worker 负载均衡。

server {
listen 18080; // 18081,18082 配置一样
server_name localhost;

location / {
content_by_lua_block {
local sum = 0;
for i = 1,10000000,1 do
sum = sum + math.sqrt(i)
end
ngx.say(sum)
}
}
}

server {
listen 28080;
server_name localhost;

location / {
content_by_lua_block {
local sum = 0;
for i = 1,10000000,1 do
sum = sum + math.sqrt(i)
end
ngx.say(sum)
}
}
}

首先来记录一下当前 worker 进程情况。

如何修改 Nginx 源码实现 worker 进程隔离_nginx_04

可以看到现在已经启动了 1 个内部隔离 worker 进程(pid=3355),4 个普通 worker 进程(pid=3356~3359)。

首先我们可以看通过端口监听来确定我们的改动是否生效。

如何修改 Nginx 源码实现 worker 进程隔离_nginx_05

可以看到隔离进程 3355 进程监听了 18080、18081、18082,普通进程 3356 等进程监听了 20880、20881 端口。

使用 ab 请求 18080 端口,看看是否只会把 3355 进程 CPU 跑满。

ab -n 10000 -c 10 localhost:18080

top -p 3355,3356,3357,3358,3359

可以看到此时只有 3355 这个 isolation process 被跑满。

如何修改 Nginx 源码实现 worker 进程隔离_nginx_06

接下来看看非隔离端口请求,是否只会跑满其它四个 woker process。

ab -n 10000 -c 10 localhost:28080

top -p 3355,3356,3357,3358,3359

如何修改 Nginx 源码实现 worker 进程隔离_lua_07

符合预期,只会跑满 4 个普通 worker 进程(pid=3356~3359),此时 3355 的 cpu 使用率为 0。

到此,我们就通过修改 Nginx 源码实现了特定基于端口号的进程隔离方案。此 demo 中的端口号是写死的,我们实际使用的时候是通过 lua 代码传入的。

init_by_lua_block {
local process = require "ngx.process"

local ports = {18080, 18081, 18083}
local ok, err = process.enable_isolation_process(ports)
if not ok then
ngx.log(ngx.ERR, "enable enable_isolation_process failed")
return
else
ngx.log(ngx.ERR, "enable enable_isolation_process success")
end
}

这里需要 lua 通过 ffi 传入到 OpenResty 中,这里不是本文的重点,就不展开讲述。

后记

这个方案有一点 hack,能比较好的解决当前我们遇到的问题,但是也是有成本的,需要维护自己的 OpenResty 代码分支,喜欢折腾的同学或者实在需要此特性可以试试。

上述方案只是我对 Nginx 源码的粗浅了解做的改动,如果有使用不当的地方欢迎跟我反馈。

标签:process,isolation,worker,Nginx,源码,ngx,port,cycle
From: https://blog.51cto.com/u_15773567/5797641

相关文章

  • 使用nginx limit_except 保护暴露外网的minio 服务
    minio做为比较热门的开源s3服务,受到好多团队的青睐,使用率还是比较高的,如果我们的服务是部署在内网的还好一般不用太担忧安全问题(但是也得做好内网的安全防护),但是如果直......
  • Nginx初接触
    Nginx的反向代理与负载均衡以及动静分离正向代理与反向代理正向代理代理客户端反向代理代理服务器**Nginx提供的负载均衡策略有2种:内置策略和扩展策略。内置策略为轮......
  • C51单片机定时器中断(理论与程序源码)
    一、C51中断系统定时器一直是单片机比较难且重要的一部分,刚学51单片机时对定时器中断等部分学的一知半解,过了很长一段时间再回去理解了一遍方才恍然大悟,在此写下自己的拙......
  • nginx 又出现了 404
    我使用下面的nginx配置, 看起来好像没问题:server{listen80;#listensomename:80;#server_namesomenamealiasanother.alias;......
  • Linux安装nginx
    1、安装所需环境//安装gccyuminstallgcc-c++//安装PCREpcre-develyuminstall-ypcrepcre-devel//安装zlibyuminstall-yzlibzlib-devel//安装OpenS......
  • 爱上源码,重学Spring IoC深入
    回答:我们为什么要学习源码?1、知其然知其所以然2、站在巨人的肩膀上,提高自己的编码水平3、应付面试1.1Spring源码阅读小技巧1、类层次藏得太深,不要一个类一个类的去......
  • vue源码分析-v-model的本质
    双向数据绑定这个概念或者大家并不陌生,视图影响数据,数据同样影响视图,两者间有双向依赖的关系。在响应式系统构建的上,中,下篇我已经对数据影响视图的原理详细阐述清楚了。而......
  • vue源码分析-diff算法核心原理
    这一节,依然是深入剖析Vue源码系列,上几节内容介绍了VirtualDOM是Vue在渲染机制上做的优化,而渲染的核心在于数据变化时,如何高效的更新节点,这就是diff算法。由于源码中关于d......
  • 直播平台源码,解决uni-app中flex布局子元素宽度溢出
    直播平台源码,解决uni-app中flex布局子元素宽度溢出页面布局如下 <viewclass="friend-list"><viewclass="avatar"></view><viewclass="wrapper-right"><viewclass="......
  • Windows安装nginx
    环境Windows10nginx1.22.1配置下载nginx下载地址:http://nginx.org/en/download.html下载稳定版安装解压到指定目录,以管理员权限启动命令提示符,进入解压后的ngin......