首页 > 其他分享 >技术分享| 基于 Etcd 的分布式锁实现原理及方案

技术分享| 基于 Etcd 的分布式锁实现原理及方案

时间:2022-10-26 14:58:00浏览次数:113  
标签:%+ err time Key Etcd 分享 客户端 分布式

1. 为什么选择 Etcd

据官网介绍,Etcd 是一个分布式,可靠的 Key-Value 存储系统,主要用于存储分布式系统中的关键数据。初见之下,Etcd 与 NoSQL 数据库系统有几分相似,但作为数据库绝非 Etcd 所长,其读写性能远不如 MongoDB、Redis 等 Key-Value 存储系统。“让专业的人做专业的事!” Ectd 作为一个高可用的键值存储系统,有很多典型的应用场景,本文将介绍 Etcd 的优秀实践之一:分布式锁。

1.1 Etcd 优点

目前,可实现分布式锁的开源软件有很多,其中应用最广泛、大家最熟悉的应该就是 ZooKeeper,此外还有数据库、Redis、Chubby 等。但若从读写性能、可靠性、可用性、安全性和复杂度等方面综合考量,作为后起之秀的 Etcd 无疑是其中的 “佼佼者” 。它完全媲美业界“名宿”ZooKeeper,在有些方面,Etcd 甚至超越了 ZooKeeper,如 Etcd 采用的 Raft 协议就要比 ZooKeeper 采用的 Zab 协议简单、易理解。

Etcd 作为 CoreOS 开源项目,有以下的特点。

  • 简单:使用 Go 语言编写,部署简单;支持 cURL 方式的用户 API (HTTP+JSON),使用简单;开源 Java 客户端使用简单;
  • 安全:可选 SSL 证书认证;
  • 快速:在保证强一致性的同时,读写性能优秀,详情可查看官方提供的 Benchmark 数据 ;
  • 可靠:采用 Raft 算法实现分布式系统数据的高可用性和强一致性。

1.2 分布式锁的基本原理

分布式环境下,多台机器上多个进程对同一个共享资源(数据、文件等)进行操作,如果不做互斥,就有可能出现“余额扣成负数”,或者“商品超卖”的情况。为了解决这个问题,需要分布式锁服务。首先,来看一下分布式锁应该具备哪些条件。

  • 互斥性:在任意时刻,对于同一个锁,只有一个客户端能持有,从而保证一个共享资源同一时间只能被一个客户端操作;
  • 安全性:即不会形成死锁,当一个客户端在持有锁的期间崩溃而没有主动解锁的情况下,其持有的锁也能够被正确释放,并保证后续其它客户端能加锁;
  • 可用性:当提供锁服务的节点发生宕机等不可恢复性故障时,“热备” 节点能够接替故障的节点继续提供服务,并保证自身持有的数据与故障节点一致。
  • 对称性:对于任意一个锁,其加锁和解锁必须是同一个客户端,即客户端 A 不能把客户端 B 加的锁给解了。

1.3 Etcd 实现分布式锁的基础

Etcd 的高可用性、强一致性不必多说,前面章节中已经阐明,本节主要介绍 Etcd 支持的以下机制:Watch 机制、Lease 机制、Revision 机制和 Prefix 机制,正是这些机制赋予了 Etcd 实现分布式锁的能力。

  • Lease 机制:即租约机制(TTL,Time To Live),Etcd 可以为存储的 Key-Value 对设置租约,当租约到期,Key-Value 将失效删除;同时也支持续约,通过客户端可以在租约到期之前续约,以避免 Key-Value 对过期失效。Lease 机制可以保证分布式锁的安全性,为锁对应的 Key 配置租约,即使锁的持有者因故障而不能主动释放锁,锁也会因租约到期而自动释放。
  • Revision 机制:每个 Key 带有一个 Revision 号,每进行一次事务便加一,因此它是全局唯一的,如初始值为 0,进行一次 put(key, value),Key 的 Revision 变为 1,同样的操作,再进行一次,Revision 变为 2;换成 key1 进行 put(key1, value) 操作,Revision 将变为 3;这种机制有一个作用:通过 Revision 的大小就可以知道写操作的顺序。在实现分布式锁时,多个客户端同时抢锁,根据 Revision 号大小依次获得锁,可以避免 “羊群效应” (也称“惊群效应”),实现公平锁。
  • Prefix 机制:即前缀机制,也称目录机制,例如,一个名为 /mylock 的锁,两个争抢它的客户端进行写操作,实际写入的 Key 分别为:key1="/mylock/UUID1",key2="/mylock/UUID2",其中,UUID 表示全局唯一的 ID,确保两个 Key 的唯一性。很显然,写操作都会成功,但返回的 Revision 不一样,那么,如何判断谁获得了锁呢?通过前缀“/mylock” 查询,返回包含两个 Key-Value 对的 Key-Value 列表,同时也包含它们的 Revision,通过 Revision 大小,客户端可以判断自己是否获得锁,如果抢锁失败,则等待锁释放(对应的 Key 被删除或者租约过期),然后再判断自己是否可以获得锁。
  • Watch 机制:即监听机制,Watch 机制支持监听某个固定的 Key,也支持监听一个范围(前缀机制),当被监听的 Key 或范围发生变化,客户端将收到通知;在实现分布式锁时,如果抢锁失败,可通过 Prefix 机制返回的 Key-Value 列表获得 Revision 比自己小且相差最小的 Key(称为 Pre-Key),对 Pre-Key 进行监听,因为只有它释放锁,自己才能获得锁,如果监听到 Pre-Key 的 DELETE 事件,则说明 Pre-Key 已经释放,自己已经持有锁。

2. Etcd 实现分布式锁

2.1 基于 Etcd 的分布式锁业务流程

下面描述了使用 Etcd 实现分布式锁的业务流程,假设对某个共享资源设置的锁名为:/anyrtc/mylock。

步骤1:准备
客户端连接 Etcd,以 /anyrtc/mylock 为前缀创建全局唯一的 Key,假设第一个客户端对应的 Key="/anyrtc/mylock/UUID1",第二个为 Key="/anyrtc/mylock/UUID2";客户端分别为自己的 Key 创建租约 Lease,租约的长度根据业务耗时确定,假设为 15s。

步骤2:创建定时任务作为租约的“心跳”
在一个客户端持有锁期间,其它客户端只能等待,为了避免等待期间租约失效,客户端需创建一个定时任务作为“心跳”进行续约。此外,如果持有锁期间客户端崩溃,心跳停止,Key 将因租约到期而被删除,从而锁释放,避免死锁。

步骤3:客户端将自己全局唯一的 Key 写入 Etcd
进行 Put 操作,将步骤 1 中创建的 Key 绑定租约写入 Etcd,根据 Etcd 的 Revision 机制,假设两个客户端 Put 操作返回的 Revision 分别为1、2,客户端需记录 Revision 用以接下来判断自己是否获得锁。

步骤4:客户端判断是否获得锁
客户端以前缀 /anyrtc/mylock 读取 Key-Value 列表(Key-Value 中带有 Key 对应的 Revision),判断自己 Key 的 Revision 是否为当前列表中最小的,如果是则认为获得锁;否则监听列表中前一个 Revision 比自己小的 Key 的删除事件,一旦监听到删除事件或者因租约失效而删除的事件,则自己获得锁。

步骤5:执行业务
获得锁后,操作共享资源,执行业务代码。

步骤6:释放锁
完成业务流程后,删除对应的 Key 释放锁。

2.2 基于 Etcd 的分布式锁的原理图

根据上一节中介绍的业务流程,基于Etcd的分布式锁示意图如下。
在这里插入图片描述

业务流程图大家可参看这篇文章《Zookeeper 分布式锁实现原理》

2.3 基于golang实现Etcd的分布式锁

分布式锁EtcdLocker代码

package etcd

import (
	"context"
	clientV3 "go.etcd.io/etcd/client/v3"
	"log"
	"os"
	"time"
)

// EtcdLocker 分布式锁结构体
type EtcdLocker struct {
	client     *clientV3.Client // 连接到etcd的客户端实例
	lease      clientV3.Lease   // 在etcd上的租约实例
	leaseId    clientV3.LeaseID
	cancelFunc context.CancelFunc
	option     Option
}

// Option EtcdClient的配置选项
type Option struct {
	ConnectionTimeout time.Duration // 连接到etcd的超时时间,示例:5*time.Second
	LeaseTtl          int64         // 租约时长,连接异常断开后,未续租的租约会在这个时间之后失效
	Prefix            string        // 锁前缀
	Username          string        // 用户名,可选
	Password          string        // 密码,可选
	Debug             bool
}

// New 创建一把锁
//  etcdEndpoints etcd连接信息,示例:[]string{"localhost:2379"}
//  option 连接选项,包clientV3.Config中的配置项很多,我们其实用不到它们那么多,简化一下
func New(etcdEndpoints []string, option Option) (locker *EtcdLocker, err error) {
	if option.Prefix == "" {
		option.Prefix = "distribution_lock:"
	}
	if option.ConnectionTimeout <= 0 {
		option.ConnectionTimeout = 5 * time.Second
	}
	if option.LeaseTtl <= 0 {
		option.LeaseTtl = 5
	}
	config := clientV3.Config{
		Endpoints:   etcdEndpoints,
		DialTimeout: option.ConnectionTimeout,
		Username:    option.Username,
		Password:    option.Password,
	}
	locker = &EtcdLocker{
		option: option,
	}
	if locker.client, err = clientV3.New(config); err != nil {
		return nil, err
	}
	var timeoutCtx, cancel = context.Background(), locker.timeoutCancel
	timeoutCtx, cancel = context.WithTimeout(context.Background(), option.ConnectionTimeout)
	defer cancel()
	if _, err := locker.client.Status(timeoutCtx, etcdEndpoints[0]); err != nil {
		return nil, err
	}

	//上锁并创建租约
	locker.lease = clientV3.NewLease(locker.client)
	var leaseGrantResp *clientV3.LeaseGrantResponse
	// 第2个参数TTL,可以用于控制如果当前进程和etcd连接断开了,持有锁的上下文多长时间失效
	if leaseGrantResp, err = locker.lease.Grant(context.TODO(), option.LeaseTtl); err != nil {
		return nil, err
	}
	locker.leaseId = leaseGrantResp.ID
	var ctx context.Context
	// 创建一个可取消的租约,主要是为了退出的时候能够释放
	ctx, locker.cancelFunc = context.WithCancel(context.Background())
	var keepRespChan <-chan *clientV3.LeaseKeepAliveResponse
	if keepRespChan, err = locker.lease.KeepAlive(ctx, locker.leaseId); err != nil {
		return nil, err
	}
	// 续约应答
	go func() {
		for {
			select {
			case keepResp := <-keepRespChan:
				if keepResp == nil {
					if locker.option.Debug {
						log.Printf("进程 %+v 的锁 %+v 的租约已经失效了", os.Getpid(), locker.leaseId)
					}
					return
				} else { // 每秒会续租一次, 所以就会收到一次应答
					if locker.option.Debug {
						log.Printf("进程 %+v 收到自动续租应答 %+v", os.Getpid(), keepResp.ID)
					}
				}
			}
		}
	}()
	return locker, nil
}

func (locker *EtcdLocker) timeoutCancel() {
	if locker.option.Debug {
		log.Printf("进程 %+v 的锁操作撤销", os.Getpid())
	}
}

// GetId 获得当前锁的内部ID
func (locker *EtcdLocker) GetId() int64 {
	return int64(locker.leaseId)
}
// Acquire 获得锁
// lockerId 锁ID,推荐使用UUID或雪花算法,确保唯一性,防止复杂业务+大量数据的情况下发生锁冲撞
// 返回值:who 如果获得锁失败,此ID可以标示锁现在在谁手中(这个谁,来自于GetId()的返回值
//        换句话说,A进程获得锁之后,可以通过GetId知道自己的ID是多少,此时B进程获得锁失败,可以通过who返回值知道锁在A手中
func (locker *EtcdLocker) Acquire(lockerId string) (who int64, ok bool) {
	var err error
	// 在租约时间内去抢锁(etcd 里面的锁就是一个 key)
	kv := clientV3.NewKV(locker.client)

	// 创建事务
	txn := kv.Txn(context.TODO())
	// 定义锁的Key
	var lockerKey = locker.option.Prefix + lockerId
	// If 不存在 key,Then 设置它,Else 抢锁失败
	txn.If(clientV3.Compare(clientV3.CreateRevision(lockerKey), "=", 0)).
		Then(clientV3.OpPut(lockerKey, lockerId, clientV3.WithLease(locker.leaseId))).
		Else(clientV3.OpGet(lockerKey))
	var txnResp *clientV3.TxnResponse
	if txnResp, err = txn.Commit(); err != nil {
		return 0, false
	}

	if !txnResp.Succeeded {
		return txnResp.Responses[0].GetResponseRange().Kvs[0].Lease, false
	}
	return 0, true
}

// Release 释放锁
func (locker *EtcdLocker) Release() error {
	locker.cancelFunc()
	if _, err := locker.lease.Revoke(context.TODO(), locker.leaseId); err != nil {
		return err
	}
	return nil
}

EtcdLocker Test方法

package etcd

import (
	"fmt"
	"log"
	"os"
	"sync"
	"sync/atomic"
	"testing"
	"time"
)

var etcdEndpoint = []string{"192.168.1.111:2379"}

// 一把锁,开调试
func TestEtcdLockerOneAsDebug(t *testing.T) {
	option := Option{
		ConnectionTimeout: 5 * time.Second,
		Prefix:            "",
		Debug:             true,
	}
	if locker, err := New(etcdEndpoint, option); err != nil {
		log.Fatalf("创建锁失败:%+v", err)
	} else if who, ok := locker.Acquire("EtcdLockerOneAsDebug"); ok {
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil {
			log.Fatalf("释放锁失败:%+v", err)
		} else {
			time.Sleep(2 * time.Second)
		}
	} else {
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	}
}

// 一把锁,不开调试带前缀
func TestEtcdLockerOneNoneDebugAndPrefix(t *testing.T) {
	option := Option{
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	}
	if locker, err := New(etcdEndpoint, option); err != nil {
		log.Fatalf("创建锁失败:%+v", err)
	} else if who, ok := locker.Acquire("EtcdLockerOneNoneDebugAndPrefix"); ok {
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil {
			log.Fatalf("释放锁失败:%+v", err)
		} else {
			time.Sleep(1 * time.Second)
		}
	} else {
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	}
}

// 一把锁,多任务(多请求)竞争锁,
// 此测试用例还可以通过命令 go test -run="TestEtcdLockerMultiTask" 开多个进程进行并行竞争测试
// 多进程测试时的结果验证方法,条件:多个测试只要有一个未完成,预期结果是:获取锁失败,successCount的值就是0
func TestEtcdLockerMultiTask(t *testing.T) {
	const taskCount = 5
	option := Option{
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	}
	var successCount int64 = 0
	var wg sync.WaitGroup
	for i := 0; i < taskCount; i++ {
		wg.Add(1)
		go func(taskId int) {
			defer wg.Done()
			if locker, err := New(etcdEndpoint, option); err != nil {
				log.Fatalf("[%+v]创建锁失败:%+v", taskId, err)
			} else if who, ok := locker.Acquire("EtcdLockerMulti"); ok {
				// 抢到锁后执行业务逻辑,没有抢到则退出
				t.Logf("[%+v]进程 %+v 持有锁 %+v 正在处理任务中...", taskId, os.Getpid(), locker.GetId())
				atomic.AddInt64(&successCount, 1)
				time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
				t.Logf("[%+v]进程 %+v 的任务处理完了", taskId, os.Getpid())
				// 手动释放锁,在后台应用服务中,也可以通过defer释放
				if err := locker.Release(); err != nil {
					log.Fatalf("[%+v]释放锁失败:%+v", taskId, err)
				} else {
					time.Sleep(1 * time.Second)
				}
			} else {
				t.Logf("[%+v]获取锁失败,锁现在在 %+v 手中", taskId, who)
			}
		}(i)
	}
	wg.Wait()
	if successCount != 1 {
		t.Fatalf("进程 %+v 的分布式锁功能存在BUG", os.Getpid())
	}
}

// 多把锁,多任务(多请求),各有各的锁
func TestEtcdLockerMultiBusinessMultiLocker(t *testing.T) {
	const taskCount = 5
	option := Option{
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	}
	var successCount int64 = 0
	var wg sync.WaitGroup
	for i := 0; i < taskCount; i++ {
		wg.Add(1)
		go func(taskId int) {
			defer wg.Done()
			if locker, err := New(etcdEndpoint, option); err != nil {
				log.Fatalf("[%+v]创建锁失败:%+v", taskId, err)
			} else if who, ok := locker.Acquire(fmt.Sprintf("EtcdLockerMulti_%d", taskId)); ok {
				// 抢到锁后执行业务逻辑,没有抢到则退出
				t.Logf("[%+v]进程 %+v 持有锁 %+v 正在处理任务中...", taskId, os.Getpid(), locker.GetId())
				atomic.AddInt64(&successCount, 1)
				time.Sleep(8 * time.Second) // 这是正在做的事情,假定耗时8秒
				t.Logf("[%+v]进程 %+v 的任务处理完了", taskId, os.Getpid())
				// 手动释放锁,在后台应用服务中,也可以通过defer释放
				if err := locker.Release(); err != nil {
					log.Fatalf("[%+v]释放锁失败:%+v", taskId, err)
				} else {
					time.Sleep(1 * time.Second)
				}
			} else {
				t.Logf("[%+v]获取锁失败,锁现在在 %+v 手中", taskId, who)
			}
		}(i)
	}
	wg.Wait()
	if successCount != taskCount {
		t.Fatalf("进程 %+v 的分布式锁功能存在BUG", os.Getpid())
	}
}

func TestEtcdLocker_GetId(t *testing.T) {
	option := Option{
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "EtcdLocker_GetId",
		Debug:             true,
	}
	if locker, err := New(etcdEndpoint, option); err != nil {
		log.Fatalf("创建锁失败:%+v", err)
	} else if who, ok := locker.Acquire("EtcdLocker_GetId"); ok {
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(2 * time.Second) // 这是正在做的事情,假定耗时2秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil {
			log.Fatalf("释放锁失败:%+v", err)
		} else {
			time.Sleep(1 * time.Second)
		}
	} else {
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	}
}

参考文档

Etcd官网
Etcd
技术文章摘抄
基于 etcd 实现分布式锁

标签:%+,err,time,Key,Etcd,分享,客户端,分布式
From: https://www.cnblogs.com/anyrtc/p/16828333.html

相关文章

  • 聊一聊分布式锁的设计模型
      一、什么是分布式锁?什么是分布式锁?对于这个问题,相信很多同学是既熟悉又陌生。随着分布式系统的快速发展与广泛应用,针对共享资源的互斥访问也成为了很多业务必须要......
  • 分布式事务
    http://icyfenix.cn/architect-perspective/general-architecture/transaction/distributed.html 分布式事务本章中所说的分布式事务(DistributedTransaction)特指多个......
  • 从小白到架构师(3): 揭开分布式数据库的面纱
    「从小白到架构师」系列努力以浅显易懂、图文并茂的方式向各位读者朋友介绍WEB服务端从单体架构到今天的大型分布式系统、微服务架构的演进历程。「从小白到架构师」系......
  • 最大努力通知分布式解决方案
    适用场景:适用最终一致性时间敏感度低的场景,并且事务的被动方的处理结果不会影响主动方的处理结果,最典型的是支付成功后,平台通知商户。 优缺点优点:1)能够实现跨企业的数......
  • 24-24-分布式架构业务逻辑层与数据访问层设计与实践(2)_ev
                     别怕重复只要你认为的实体都写出来            业务聚合层是对服务层的一个聚合  ......
  • 强一致性分布式事务与最终一致性分布式事务方案
    强一致性事务解决方案优点:1)数据一致性比较高2)在任意时刻都能都够查询到最新写入的数据缺点:1)存在性能问题,在分布式事务未完全提交和回滚之前,应用不能查询到最新的数据......
  • 23-23-分布式架构业务逻辑层与数据访问层设计与实践(1)_ev
                                               ......
  • 分布式之计算高可用
    @目录一、计算高可用概念二、主备方案--热方案[推荐]三、主备-冷方案四、主从方案五、对称集群方案六、对称集群的伸缩架构七、数据库非对称集群方案一、计算高可用概念......
  • docker swarm快速部署redis分布式集群
    环境准备四台虚拟机192.168.2.38(管理节点)192.168.2.81(工作节点)192.168.2.100(工作节点)192.168.2.102(工作节点)时间同步每台机器都执行yuminstall-yntpcat<<EO......
  • 分布式数据中心节点多?看托管云如何实现精细运维​
    随着用户数据中心节点的增多,在管理数据中心上,网络突然中断、流量高并发、网络配置异常、网口硬件异常等问题时有发生。依靠人工手动进行网络质量及故障分析,并根据经验进行故......