首页 > 其他分享 >skynet的cluster集群

skynet的cluster集群

时间:2024-10-27 13:47:53浏览次数:5  
标签:结点 end clusterd cluster 集群 skynet local

集群的使用

现在的游戏服务器框架中,分布式是一种常见的需求。一个游戏服务器组通常可以分成网关服务器、登录服务器、逻辑服务器、跨服服务器等等。
skynet中,我们可以通过cluster来组建一个集群,实现分布式的部署。

示例

我们先来看一个简单的例子,在这里我们实现了两个skynet结点(进程):一个称为center,一个称为game
center中启动一个data服务,然后game结点向center结点的data服务获取数据。

center结点有两个文件centerMaindataService

--centerMain.lua
local skynet = require("skynet")
require("skynet.manager")
local cluster = require("skynet.cluster")

skynet.start(function()
   --打开结点:表示当前进程是center结点,监听center端口
   cluster.open("center")

   --启动dataService服务
   local addr = skynet.newservice("dataService")

   --注册名字,以便其他结点访问
   skynet.name(".dataService", addr)
end)
--dataService.lua
local skynet = require "skynet"
local kv = {}

skynet.start(function()
   skynet.dispatch("lua", function(session, source, cmd, k, v)
      if cmd == "set" then
         kv[k] = v
      elseif cmd == "get" then
         skynet.retpack(kv[k])
      end
   end)
end)

game结点连接center结点,访问dataService服务:

local skynet = require("skynet")
require("skynet.manager")
local cluster = require("skynet.cluster")

skynet.start(function()
   --使用cluster.send/call
   cluster.send("center", ".data", "set", "k1", "v1")
   print(cluster.call("center", ".data", "get", "k1"))

   --使用skynet.send/call
   local addr = cluster.proxy("center", ".data")
   skynet.send(addr, "lua", "set", "k1", "v2")
   print(skynet.call(addr, "lua", "get", "k1"))
end)

在配置文件中,我们需要指定一个cluster文件:

--config
cluster = "./config/clusterConfig.lua"

--config/clusterConfig.lua
__nowaiting = true 
center="127.0.0.1:14880"
game="127.0.0.1:14881"

这样一个简单的skynet集群就搭建好了

cluster

在示例中,我们看到集群的监听和发送,都是通过cluster这个库来操作的。cluster是一个封装的用来进行集群相关操作的函数库,通过local cluster = require("skynet.cluster")引入
主要的函数有:

1. cluster.reload

cluster.reload用来加载配置。除了通过配置文件之外,我们也可以使用cluster.reload来加载配置:

cluster.reload({
   center="127.0.0.1:14880",
   game="127.0.0.1:14881",
})

如果不传参数的话,则表示重新从配置文件中加载:

cluster.reload()

reload是新加配置,对于旧的结点,如果没有被覆盖到则没有影响。想要清除旧的结点,可以配置node=nil

可以通过配置节点名字对应的地址为 false 来明确指出这个节点已经下线

2. cluster.open

cluster.open表示监听指定的端口。示例中,在center结点,我们使用cluster.open('center')来监听center端口,在这里是监听127.0.0.1:14880

这里会发一条listen指令给到clusterdclusterd启动gate服务,并通过gate服务来监听端口。

clusterd在收到listen时,会启动一个gate服务,所以如果你有自定义的网关服务,最好不要用gate这个服务名。

在一个进程里,我们可以open多个端口,如果其他结点不会主动连接本结点,那也可以不open任何端口。

3. cluster.send / cluster.call

sendcall可以向指定的结点发送lua消息。
其效果和在目标结点上,发送lua消息一样。
game结点上执行:
cluster.send("center", ".dataService", "set", "k1", "v1")
相当于在center结点上执行:
skynet.send(".dataService", "lua", "set", "k1", "v1")

4. cluster.proxy

cluster.proxy用于生成一个代理地址,使发送跨结点的消息看起来和发送本地消息一样:

local addr = cluster.proxy('center', '.dataService')
skynet.send(addr, 'lua', 'set', 'k1', 'v1')

和发送本地消息的区别在于,这种方式下,skynet.send只能支持lua消息。

5. cluster.register / cluster.query

cluster.register用于给某个服务在当前结点注册个名字。
其他结点,则可以使用cluster.query来判断目标结点是否存在某个服务。

clusterd服务

当我们引入cluster库时,会启动一个唯一服务clusterd,这是在cluster.lua文件中,通过skynet.init的方式启动的:

--cluster.lua
skynet.init(function()
    clusterd = skynet.uniqueservice("clusterd")
end)

cluster库的函数,基本上都是通过发送lua消息到clusterd服务来进行的。

clusterd会处理以下lua消息:

1. reload

clusterd维护一个node_address表,用来记录每个结点对应的IP地址和端口。

2. listen

收到listen消息时,clusterd会启动一个gate服务。然后根据结点名,获取结点地址,启动gate监听网络端口。
当这个gate服务收到网络连接时,会发送lua消息socketclusterd服务,然后由clusterd启动一个clusteragent服务,来处理这个连接的消息:

function command.socket(source, subcmd, fd, msg)
	if subcmd == "open" then
		skynet.error(string.format("socket accept from %s", msg))
		-- new cluster agent
		cluster_agent[fd] = false
		local agent = skynet.newservice("clusteragent", skynet.self(), source, fd)
		--...其他代码
	else
		--...关闭和错误处理
	end
end

3. register

clusterd维护一个register_name表,用来记录注册的服务名和地址。

4. proxy

clusterd维护一个proxy表,记录结点名.服务名对应的代理地址,当代理地址不存在时,则创建一个clusterproxy服务。

5. sender

clusterd维护一个node_channel表,记录结点对应的clustersender地址,这里会返回结点对应的clustersender地址,没有则先创建一个。

发送消息到其他结点

  • cluster.send
    cluster.send会通过一个clustersender服务来发送消息。先看看代码:
function cluster.send(node, address, ...)
	-- push is the same with req, but no response
	local s = sender[node]
	if not s then
		table.insert(task_queue[node], skynet.packstring(address, ...))
	else
		skynet.send(sender[node], "lua", "push", address, skynet.pack(...))
	end
end

cluster中维护着sender列表,在同一个服务里,sender记录每个node对应的clustersender服务。
sender[node]不存在的时候,没有直接创建一个clustersender,而是将当前的参数打包,然后插入到一个task_queue队列中,这是因为创建服务是一个阻塞的过程,在创建服务的过程中,可能会再次调用cluster.send,所以这里将所有创建过程中的参数都缓存起来,等clustersender创建完成后,再统一发送到目标结点。
而创建clustersender,又是发送消息到clusterd服务:local ok, c = pcall(skynet.call, clusterd, "lua", "sender", node)

skynet.packstring可以将多个参数(字符串,数字,表,布尔值)序列化成一个字符串。可以使用skynet.unpack反序列化将参数解出。

  • cluster.call
    cluster.call同样是通过clustersender服务来发送消息。
function cluster.call(node, address, ...)
	-- skynet.pack(...) will free by cluster.core.packrequest
	local s = sender[node]
	if not s then
		local task = skynet.packstring(address, ...)
		return skynet.call(get_sender(node), "lua", "req", repack(skynet.unpack(task)))
	end
	return skynet.call(s, "lua", "req", address, skynet.pack(...))
end

cluster.send使用task_queue可以立刻返回,不会阻塞,而cluster.call本身就是会阻塞的,所以可以直接使用get_sender,以阻塞的形式获取一个clustersender

注意这里先将参数序列化,等获取到sender之后才重新化序列化,这是因为get_sender这个过程是阻塞的,而参数有可能是个table,在阻塞的过程中,这个table中的值有可能发生变化,导致逻辑不符合预期,所以这里通过序列化来保证发送时的参数不会被改变。

clustersender服务

clustersender用来连接指定结点并发送数据。这个服务是在第一次发送数据时才创建的。
在集群中,结点A向结点B发送过消息,那么结点A就有一个指向结点B的clustersender服务,且只有一个

clustersender服务是在clusterd服务中创建的,clusterd是一个唯一服务,在这个服务的管理下,每个目标结点只有一个clustersender服务。

现在我们来看看clustersender服务是怎么发送数据的。

启动服务时,我们传过来四个参数
node: 连接的集群的结点名字
nodename: 主机的hostname
init_host: socket连接的地址
init_port: socket连接的端口

skynet.start时,创建了一个skynet.socketchannel,然后设置lua消息处理函数,这里主要处理两种服务:

  • push
    push对应的是cluster.send,只负责发送,不需要响应。
function command.push(addr, msg, sz)
	local request, new_session, padding = cluster.packpush(addr, session, msg, sz)
	if padding then	-- is multi push
		session = new_session
	end

	channel:request(request, nil, padding)
end

这里的clusterC层的库,不是lua层的库。
cluster.packpush按特定的协议,来打包数据。
cluster.packpush返回三个值:
request:打包后的二进制数据。
new_sessionsession+1
padding:如果数据过大,则将超过单包上限的二进制数据以table数组的形式放在padding里。

channel:request则是将request发送给对端主机,如果有padding,则分多个包发出去。这里第二个参数是response,这里为nil表示不需要响应。

  • req
    req对应的是cluster.call,需要等待响应的返回。
local function send_request(addr, msg, sz)
	-- msg is a local pointer, cluster.packrequest will free it
	local current_session = session
	local request, new_session, padding = cluster.packrequest(addr, session, msg, sz)
	session = new_session

	local tracetag = skynet.tracetag()
	if tracetag then
		if tracetag:sub(1,1) ~= "(" then
			-- add nodename
			local newtag = string.format("(%s-%s-%d)%s", nodename, node, session, tracetag)
			skynet.tracelog(tracetag, string.format("session %s", newtag))
			tracetag = newtag
		end
		skynet.tracelog(tracetag, string.format("cluster %s", node))
		channel:request(cluster.packtrace(tracetag))
	end
	return channel:request(request, current_session, padding)
end

function command.req(...)
	local ok, msg = pcall(send_request, ...)
	if ok then
		if type(msg) == "table" then
			skynet.ret(cluster.concat(msg))
		else
			skynet.ret(msg)
		end
	else
		skynet.error(msg)
		skynet.response()(false)
	end
end

command.req调用send_request,返回值如果是table表示这是一个大包切割成多个小包,需要使用cluster.concat连接起来再返回,如果是string则直接返回。
send_request中,cluster.packrequestcluster.packpush类似,来打包request类型的数据。
最后同样是交给channel:request来发送socket消息,和push不同的是,这里第二个参数传入了current_session,表示接收响应的会话ID。

这里简单的讲一下channel:request是怎么发送和接收数据的。
channel:request首先会检查当前的连接状态:

  • 如果socket连接还没建立,则先建立连接,再发送数据;
  • 如果socket连接已断开,则会抛出异常;
  • 如果socket连接正常,则直接发送数据。
    在发送数据的时候,如果数据包太大(超过32K),则会切分成多个包来发送。

如果需要等待响应数据,那么会调用socketchannel__response函数,这个函数是在socketchannel初始化的时候传入的,在socketsender这里,则是read_response函数:

local function read_response(sock)
	local sz = socket.header(sock:read(2))
	local msg = sock:read(sz)
	return cluster.unpackresponse(msg)	-- session, ok, data, padding
end

skynet.start(function()
	channel = sc.channel {
			host = init_host,
			port = tonumber(init_port),
			response = read_response,
			nodelay = true,
		}
	skynet.dispatch("lua", function(session , source, cmd, ...)
		local f = assert(command[cmd])
		f(...)
	end)
end)

read_response中,sock:read是一个阻塞函数,接收对端socket传回来的网络消息。

clsteragent服务

前面提到过,当clustersender第一次发送数据时,会先建立socket连接,而当socket连接建立时,对面的结点会创建一个clusteragent服务,来处理收到的数据。
clusteragent的创建是在clusterd服务中:

function command.socket(source, subcmd, fd, msg)
	if subcmd == "open" then
		skynet.error(string.format("socket accept from %s", msg))
		-- new cluster agent
		cluster_agent[fd] = false
		local agent = skynet.newservice("clusteragent", skynet.self(), source, fd)
        --...其他代码
	else
        --...其他代码
	end
end

可以看到,创建clusteragent的时候,传入了三个参数:clusterd地址、source地址(即gate地址)、fd文件描述符(代表这个socket)。
clusteragent在调用skynet.start的时候,设置gate服务的转发,将来自fd的网络消息,都转发到这个clusteragent地址,然后设置了对网络消息的处理:

skynet.register_protocol {
    name = "client",
    id = skynet.PTYPE_CLIENT,
    unpack = cluster.unpackrequest,
    dispatch = dispatch_request,
}

这里的cluster.unpackrequestclustersender传过来的网络数据进行解析,然后分配给dispatch_request处理:
dispatch_request(_,_,addr, session, msg, sz, padding, is_push)
clustersender中会将服务地址addr打包,这里将addr解析出来,addr可以是字符串,也可以是数字。
addr是数字0的时候,表示查询某个注册名字的数字地址:

--结点A
cluster.register("name", addr)

--结点B
local addr = cluster.call("NodeA", 0, "name") --返回NodeA中注册的"name"的数字地址

addr是字符串或大于0的数字,则判断addr是不是通过cluster.register注册过的,如果是则addr转化成注册的地址。 然后再根据is_push,来执行skynet.rawcallskynet.rawsend,进行数据转发。 如果是call,最后还需要将数据通过socket返回给clustersender

clusterproxy服务

当我们调用cluster.proxy(node, addr)时,会向clusterd申请一个clusterproxy服务。
这里的参数,有三种形式:

  • cluster.proxy("center", ".data")
  • cluster.proxy("center.addr") :等价于 cluster.proxy("center", ".data")
  • cluster.proxy("center@addr") :等价于 cluster.proxy("center", "@data")
    clusterd会以node .. "." .. name作为key,保证同一个key只有一个clusterproxy服务。

clusterproxy服务很简单:
它会向clusterd申请一个面向nodeclustersender,然后就收到的lua消息,转发到这个clustersender上,参数使用服务初始化时的addr

参考资料

标签:结点,end,clusterd,cluster,集群,skynet,local
From: https://www.cnblogs.com/lcc9527/p/18508229

相关文章

  • Redis5.0.10集群搭建
    参考文档https://www.cnblogs.com/hmwh/p/10289138.htmlhttps://www.cnblogs.com/zgqbky/p/11792141.html以下操作均需在每台服务器上执行安装依赖关系yuminstallmakezlibopenssl*ImageMagick-develgcc*rubygems-y2、创建节点目录mkdir-p/opt/app/redis-cluste......
  • Redis4.0.12集群搭建
    服务器:节点1:10.10.175.55 端口:6379/7379节点2:10.10.175.56 端口:6379/7379节点3:10.10.175.57 端口:6379/7379以下操作均需在每台服务器上执行安装依赖关系yuminstallmakezlibopenssl*ImageMagick-develgcc*rubygems-y2、创建节点目录mkdir-p/usr/local/redis-cl......
  • Zookeeper实战 集群环境部署
    1、概述今天我们来学习一下Zookeeper集群相关的内容,本文主要的内容有集群环境的搭建,集群常见的问题和对应的解决方案。2、集群环境搭建2.1、准备工作首先我们准备好安装包,创建好集群部署的路径。将解压后的安装文件复制三分。这里我在/usr/local目录下创建了一个zkCluster......
  • k8s 1.28.2 集群部署 NFS server 和 NFS Subdir External Provisioner
    目录前言部署NFSserver镜像准备节点打标签启动NFSserver创建pv验证创建pvc创建pod挂载验证部署NFSSubdirExternalProvisioner创建pod验证提前创建pvc的方式使用volumeClaimTemplates的方式前言NFSSubdirExternalProvisioner可以使用现有的NFS服务器......
  • 处理容器报错:[ERROR] .. Get “http://safeline-fvm/skynetinto“: dial tp: lookup s
    雷池社区版(WAF)是基于容器部署的在容器化应用的部署和运行过程中,我们常常会遇到各种报错信息。其中,形如“[ERROR]detect/skynet.go:114Get“http://safeline-fvm/skynetinto":dialtp:lookupsafeline-fvmon127.0.0.11:53:servermisbehaving”以及“panic:Get......
  • 什么是高性能计算集群
    高性能计算集群(High-PerformanceComputingCluster,简称HPC集群)是由多台计算节点组成的并行计算系统。它是为了解决复杂、大规模计算问题而设计的计算资源池。HPC集群的目标是通过将计算任务分配给多个计算节点并行执行,以提高计算性能和效率。一、高性能计算集群的概念高性......
  • Elasticsearch集群中的主节点和数据节点的角色。
    在Elasticsearch集群中,节点根据其角色可以分为不同的类型。主要的角色包括主节点(MasterNode)和数据节点(DataNode)。每个节点都运行着一个Elasticsearch实例,并且它们共同协作来存储数据、执行搜索请求以及管理整个集群的状态。主节点(MasterNode)角色:主节点负责管理和维......
  • 基于CentOS7.9的Patroni+Zookeeper+keepalive+Postgres高可用数据库集群部署
    第一章概述关于zookeeper和ETCD ZooKeeper和etcd都是用于分布式系统中协调服务的开源工具,它们提供一致的键值存储来管理配置信息、服务发现、分布式同步等。ZooKeeper提供了高性能的数据访问能力,适合需要快速读写的场景,并且拥有丰富的客户端库,支持多种编程语言。相比Zoo......
  • 全网最详细K8S部署Nacos集群
    K8S部署Nacos集群简介Nacos是阿里巴巴开源的一个动态服务发现、配置管理和服务管理平台,特别设计用于简化云原生应用的构建与管理。Nacos的核心特性包括:服务发现与健康检查:Nacos支持DNS与RPC方式的服务发现机制,能够自动发现、路由及负载均衡微服务。它通过健康检查机制监......
  • Opensearch集群部署【docker、服务器、Helm多种部署方式】
    操作系统兼容性我们建议在RedHatEnterpriseLinux(RHEL)或使用systemd的基于Debian的Linux发行版上安装OpenSearch,例如CentOS、AmazonLinux2和UbuntuLong-TermSupport(LTS)。OpenSearch应该适用于大多数Linux发行版,但我们只测试了少数几个。对于任何......