首页 > 其他分享 >秒杀系统“天花板”,不服不行

秒杀系统“天花板”,不服不行

时间:2023-10-12 13:07:10浏览次数:31  
标签:天花板 缓存 不服 商品 对象 秒杀 内存 GC


京东秒杀是京东最大的营销频道,近年来随着业务的高速发展,频道商品数量和用户流量都呈现出迅猛增长的态势。

同时业务方规划未来频道商品数量会增加 5 至 10 倍,对商品池扩容诉求较为强烈,这对我们现有的系统架构提出了挑战。

为了应对商品数量激增引起的风险,秒杀后台组在年初成立了秒杀商品池扩容技术优化专项,在 618 前按计划完成了千万级商品池扩容的架构升级。本文主要介绍秒杀商品池扩容专项的优化经验。

京东秒杀频道业务主要包括两部分:

  • 一部分是频道核心服务,即直接面向终端用户提供频道服务。
  • 另一部分是维护秒杀商品池数据,为商详、购物车等多端提供秒杀商品读服务,以展示“京东秒杀”的促销氛围标签,我们称为秒杀商品打标服务。

秒杀系统“天花板”,不服不行_老年代

图 1:京东秒杀频道业务

秒杀系统是一个高并发大流量系统,使用缓存技术来提高系统性能。

在频道核心服务的历史业务迭代过程中,采用了在内存中全量缓存商品池数据的缓存方案。

这是因为频道业务中存在全量商品按照多维度排序的诉求,同时在频道发展初期商品数量不多,采用全量缓存的方式内存压力不大,开发成本较低。

由于秒杀商品存在时促销、库存有限的特点,对数据更新的实时性要求较高,我们通过 ZK 通知的方式实现商品数据更新。

原系统架构如图 2 所示:

秒杀系统“天花板”,不服不行_系统架构_02

图 2:京东秒杀原系统架构图

秒杀 CMS 系统在商品录入或更新时,以活动的维度将商品数据推动到 JIMDB(京东内部分布式缓存与高速键值存储服务,类似于 Redis)中,同时通过 ZooKeeper 发送通知。

秒杀 SOA 系统监听通知后从 JIMDB 中获取最新的数据,更新本地缓存,以提供频道核心服务和商品打标服务。

1、问题分析

在以往大促期间,当商品池数量激增时,观察到系统的堆内存消耗过快,同时 Minor GC 垃圾回收效果有限,Minor GC 回收后堆内存低点不断抬高,堆内存呈持续增长的态势,并且会规律性地定期猛增。

Full GC 较为频繁,对 CPU 利用率的影响较大,接口性能毛刺现象严重。

秒杀系统“天花板”,不服不行_系统架构_03

图 3:系统异常监控

通过 JVM 堆内存变化图可以看到:

  • 堆空间增长很快,且 Minor GC 无法回收新增的堆空间。
  • 堆空间呈现有规律的上升,且会定期猛增,推测和定时任务有关。
  • Full GC后,内存回收率高,排除内存泄漏。
  • Full GC 对 CPU 利用率影响较大。

频繁 GC 对系统的稳定性和接口的性能造成严重的影响分析堆对象增长情况,通过 jmap -histo 指令在发生 Full GC 前后打印 JVM 堆中的对象,如图 4、图 5 所示:

秒杀系统“天花板”,不服不行_缓存_04

图 4:发生 Full GC 前堆内存对象

秒杀系统“天花板”,不服不行_老年代_05

图 5:发生 Full GC 后堆内存对象

从 Full GC 前后堆中对象分布情况分析,以品类秒杀为例,在 Full GC 后堆中不到 100 万商品对象,占内存 125M 左右,和品类秒杀实际有效商品数量大致相当, String 对象共占约 385M 左右。

而在发生 Full GC 前,堆中品类秒杀商品数量达到了接近 500 万,占用内存达到了 700M,另外 String 对象占用内存达到 1.2G。

结合系统架构分析,可以确定是在商品的覆盖更新过程中,旧对象未被回收而不断进入老年代,老年代内存占用越来越高,最终导致堆内存不足而产生 Full GC。

堆对象中的 String 对象也是这种更新方式的副产品,这是因为商品数据在 JIMDB 中以 String 方式存储,在更新时会从 JIMDB 中拉取到本地反序列化后得到对象列表。

可以从图 6 所示问题代码中看到产生大 String 对象的原因:

秒杀系统“天花板”,不服不行_系统架构_06

图 6:问题代码

对于上述的全量更新场景,旧对象和临时产生的 String 对象满足垃圾回收的条件,为什么没有在 Minor GC 阶段被回收?

我们知道大多数情况下,对象在新生代 Eden 区中分配,对象进入老年代有以下几种情况:

①大对象直接进入年老代:大对象即需要大量连续内存空间的 Java 对象,如长字符串及数组。

大对象会导致内存剩余空间足够时,就提前触发垃圾收集以获取足够的连续空间来安置,同时大对象的频繁复制也会影响性能。

虚拟机提供了一个 -XX:PretenureSizeThreshold 参数,使大于该阈值的对象直接在老年代分配。为避免临时 String 对象直接进入老年代的情况,我们显式关闭了该功能。

②长期存活的对象将进入年老代:虚拟机给每个对象定义了一个对象年龄计数器,在对象在 Eden 创建并经过第一次 Minor GC 后仍然存活,并能被 Suivivor 容纳的话,将会被移动到 Survivor 空间,并对象年龄设置为 1。

每经历一次 Minor GC,年龄增加 1 岁,当到达阈值时(可以通过参数 -XX: MaxTenuringThreshold 设置,CMS 垃圾回收器默认值为 6),将会晋升老年代。上述分析情况,临时 String 对象不会存活过 6 次 Minor GC。

③动态对象年龄判定:为了更好地适应不同程序内存状况,虚拟机并不硬性要求对象年龄达到 MaxTenuringThreshold 才能晋升老年代。

如果在 Survivor 空间中小于等于某个年龄所有对象大小的总和大于 Survivor 空间的一半,年龄大于或等于该年龄的对象就可以直接进入年老代。

通过上述分析,我们发现临时 String 对象最有可能触发了动态对象年龄判定机制而进入老年代。

打印虚拟机 GC 信息,并添加-XX: +PrintTenuringDistribution参数来打印发生 GC 时新生代的对象年龄信息,得到图 7 所示 GC 日志信息:

秒杀系统“天花板”,不服不行_运维_07

图 7:GC 日志

从 GC 日志可以看到,Survivor 空间大小为 358M,Survivor 区的目标使用率默认是 50%,Desired Survivor size 是 179M,age <= 2 的对象大小总和为 269M。

因此虽然设定的晋升阈值是 6,虚拟机动态计算晋升阈值为 2,最终导致 age 大于等于 2 的对象都进入老年代。

我们尝试从优化 JVM 参数的方式解决问题,效果并不理想。做过的尝试有:

增大年轻代的空间来减少对象进入老年代,结果适得其反,STW 更加频繁,CPU 利用率波动也更大。

改用 G1 垃圾收集器,效果不明显,CPU 利用率波动也更大。

显式设置晋升老年代的阈值(MaxTenuringThreshold),试图推迟对象进入老年代的速度,无任何效果。

上述问题分析的结论对我们的启示是:如果在新生代中频繁产生朝生夕死的大对象,会触发虚拟机的动态对象年龄判定机制,降低对象进入老年代的门槛,导致堆内存增长过快。

2、优化方案

①双缓存区定时散列更新

通过上面的分析可以发现,为了防止堆内存增长过快,需要控制商品数据更新的粒度和频次。

原有的商品更新方案是商品数据按照活动的维度全量覆盖更新,每个商品的状态变化都会触发更新操作。

我们希望数据更新能控制在更小的范围,同时能够控制数据更新的频率,最终设计出双缓存区定时散列更新方案,如图 8 所示。

秒杀系统“天花板”,不服不行_java_08

图 8:双缓存区定时散列更新示意图

该方案的实现是将活动下的商品以 SKU 维度散列到不同的桶中,更新的操作以桶的粒度进行。

同时为了控制数据更新的频率,我们在 SOA 端设计了双缓存区定时切量的方式。

在 CMS 商品数据更新时,会映射到需要更新的桶,并实时通知 SOA 端;在 SOA 端收到 ZK 通知后,会在读缓存区标记需要更新的桶,但不会实时的更新数据。

在达到定时时间后,会自动切换读写缓存区,此时会读取读缓存区中标记的待更新桶,从 JIMDB 中获取桶对应的商品列表,完成数据的细粒度分段更新。

该方案散列份数和定时时间可以根据具体业务情况进行调整,在性能和实时性上取得平衡,在上线后取得了较好的优化效果。

②引入本地 LRU 缓存

双缓存区定时散列更新的方案虽然在系统性能上得到了提升,但依然无法支持千万级商品的扩容。

为了彻底摆脱机器内存对商品池容量的限制,我们启动了秒杀架构的全面升级,核心思路是引入本地 LRU 缓存组件,实现冷数据淘汰,以控制内存中缓存商品的总数量在安全区间。

系统拆分:原系统存在的问题是,频道核心服务和商品打标服务共用相同的基础数据,存在系统耦合的问题。

从商品池角度分析,频道核心服务商品池是秒杀商品池的子集。从业务角度分析,频道核心服务业务逻辑复杂,调用链路长,响应时间长,商品打标服务逻辑简单,调用链路短,响应时间短。

将频道核心服务和商品打标服务进行拆分,独立部署,实现资源隔离,这样可以根据业务特点做针对性优化。

频道核心服务可以减少内存中商品缓存的数量,商品打标服务可以升级商品缓存方案,另外也可以规避架构升级过程中对频道核心服务的影响。

秒杀系统“天花板”,不服不行_运维_09

图 9:系统拆分

缓存方案优化:频道核心服务历史逻辑复杂,且直接面向终端用户,升级难度大。

在扩容专项一期中的主要优化点是拆分出频道核心服务商品池,去除非频道展示商品,以减少商品缓存数量。一期优化主要聚焦于秒杀打标服务的缓存方案升级。

在原有的系统架构中秒杀商品池全量缓存在内存中,这会导致商品数量激增时,JVM 堆内存资源紧张,商品池的容量受到限制,且无法水平扩容。

商品以活动的维度进行存储和更新,会导致大 key 的问题,在进行覆盖更新时会在内存中产生临时的大对象,不利于 JVM 垃圾回收表现。

秒杀系统“天花板”,不服不行_缓存_10

图 10:缓存方案升级

对于拆封后的商品打标服务,缓存方案优化的总体思路是实现冷热数据的拆分。

升级后的商品打标服务不再使用本地全量缓存,而是使用 JIMDB 全量缓存+本地 LRU 缓存组件的方式。

对缓存组件的要求是在缓存数据达到预设商品数量上限时,实现冷数据的清退,同时具有较高的缓存命中率和读写性能。

在对比常用的缓存框架 Caffeine 和 Guava Cache 后最终采用 Caffeine 缓存。

其优势有:

  • 性能更优。Caffeine 的读写性能显著优于 Guava, 这是由于 Guava 中读写操作夹杂着过期时间的处理,一次 put 操作中有可能会触发淘汰操作,所以其读写性能会受到一定影响。
  • 而 Caffeine 对这些事件的操作是异步的,将事件提交至队列,通过默认的 ForkJoinPool.commonPool() 或自己配置的线程池,进行取队列操作,再进行异步淘汰、过期操作。
  • 高命中率,低内存占用。Guava 使用分段 LRU 算法,而 Caffeine 使用了一种结合 LRU、LFU 优点的算法:W-TinyLFU,可以使用较少的资源来记录访问频次,同时能够解决稀疏突发访问元素的问题。

升级后的架构图如图 11 所示:

秒杀系统“天花板”,不服不行_老年代_11

图 11:升级后架构图

频道核心服务和商品打标服务独立部署,资源隔离。秒杀 CMS 在商品录入和更新时,以 SKU 维度写入 JIMDB 中组成全量秒杀商品池。

商品打标服务通过 Caffeine 缓存的方式,设置写入写入 30s 过期,最大缓存 200w 商品数据,实现热数据缓存,过期数据和冷数据的淘汰。

③引入布隆过滤器

在非秒杀 SKU 查询处理上,为了避免缓存穿透问题(即单个无效商品的高频次查询,如果本地缓存中没有则每次请求都会访问到 JIMDB),我们对于非秒杀商品的查询结果,在本地缓存中存储一个空值标识,避免无效 SKU 请求每次都访问到 JIMDB。

商详、购物车等渠道商品池数量比秒杀商品池高几个数量级,秒杀查询服务请求 SKU 中存在大量的非秒杀商品,这会导致本地缓存的命中率降低,同时带来缓存雪崩的风险。

为了拦截大量非秒杀 SKU 的请求,我们引入过滤器机制。在本地过滤器的选择上,我们尝试使用所有有效商品 SkuId 组成的 Set 集合来生成本地过滤器,上线后观察到本地过滤器数据更新时会产生性能波动。

分析发现这种方式空间复杂度高,内存占用比较高。过滤器优化为布隆过滤器后,内存占用降低,性能得到进一步提升。

3、优化效果

在完成架构升级后,经过单机压测、灰度验证、灰度上线、全量压测等过程严格验证了新系统的性能和结果准确性,在 618 大促前新系统全量平稳上线。

从近年来大促期间系统表现来看,优化效果显著,如图 12、图 13 所示,主要体现在以下几个方面。

秒杀系统“天花板”,不服不行_系统架构_12

图 12:大促性能表现对比

业务支撑:秒杀商品池数量持续增长,由于架构的调整全量商品缓存在 JIMDB,新系统支持水平扩容,后续可支持更高数量级的商品,满足业务的长期规划。

性能优化:大促期间打标服务的接口 tp999 持续下降,618 大促接口性能提升 90%,同时从接口性能对比上看,接口性能的毛刺现象得到解决。

稳定性提升:GC 频率持续下降,系统稳定性得到提高。

秒杀系统“天花板”,不服不行_java_13

图 13:接口性能监控对比

4、总结

本次秒杀商品池扩容优化专项通过优化商品更新方式、系统拆分、优化缓存方案等方式,实现了系统架构升级,提升了频道的商品容量和性能,达到了预设目标。

PS:防止找不到本篇文章,可以收藏点赞,方便翻阅查找哦

标签:天花板,缓存,不服,商品,对象,秒杀,内存,GC
From: https://blog.51cto.com/zhongmayisheng/7825611

相关文章

  • SpringBoot+RabbitMQ+Redis 开发一个秒杀系统,细节打满(附源码)
    一、简易版秒杀SeckillProject系统简介开发技术二、实现细节记录1、用户密码两次MD5加密2、分布式session维持会话3、异常统一处理4、页面缓存+对象缓存5、页面静态化6、内存标记+Redis预减库存+RabbitMQ异步处理7、解决超卖8、接口限流三、效果展......
  • 秒杀系统(1)错误
     该错误可能是误报,暂时看来不影响java:错误:无效的源发行版:17出错原因是本机默认使用的jdk与该项目的jdk版本不同,我是依照下文修改的,成功解决了IDEA编译报错:Error:java:无效的源发行版:17,一次搞定_idea无效的源发行版17-CSDN博客java:无法访问org.springframework.ster......
  • 秒杀系统(1)
    新建springboot项目,选择SpringInitializr,更改Group和Artifact,然后选maven,选Java8,导入五个依赖,分别是Lombok,SpringWeb,thymeleaf,MySql,Mybatis-Plus,前四个直接选,最后一个在官网导入,此项目要利用到redis数据库,redis数据库一般用于缓存详细说明1,lombok是java自动生成代码的插件。......
  • 商品秒杀服务
     1.定时任务启动秒杀活动  (1)使用定时任务开启秒杀活动;  (2)在分布式场景中,需要先获取锁,然后执行上架操作,最后释放锁;  (3)其他任务在获取锁后如果商品已经上架,那么就不用再次上架;  (4)使用redis缓存秒杀活动信息和活动相关的商品信息;@Slf4j@ServicepublicclassSeckil......
  • 【心得】TP6使用Redis进行处理商城秒杀
    书接上回,上次分享了TP6对于Redis的基础使用,那么今天就为大家带来一个简单的,使用场景很高的心得代码风险,Redis在商城秒杀的使用,该代码为简单分享能解决一些基础后续可以根据自己所需进行业务重构。读这篇文章的我就默认大家已经环境都安装好了,如果不知道怎么安装的可以传送到这里......
  • 【大厂面试题】如何设计一个秒杀系统?
    学习:https://www.bilibili.com/video/BV1KS4y147Yc/?spm_id_from=333.788.recommend_more_video.-1&vd_source=46d50b5d646b50dcb2a208d3946b1598......
  • Redis专题-秒杀
    Redis专题-并发/秒杀开局一张图,内容全靠“编”。昨天晚上在群友里看到有人在讨论库存并发的问题,看到这里我就决定写一篇关于redis秒杀的文章。1、理论部分我们看看一般我们库存是怎么出问题的其实redis提供了两种解决方案:加锁和原子操作。1.1、加锁加锁:其实非常常见,读取......
  • django乐观锁、悲观锁商品秒杀简单demo
    悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会阻塞直到它拿到锁(共享资源每次只给一个线程使用,其它线程阻塞,用完后再把资源转让给其它线程)。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读......
  • 社区团购商城拼团秒杀接龙分销团长小程序开源版开发
    社区团购商城拼团秒杀接龙分销团长小程序开源版开发功能介绍:商品管理:增加商品-商品列表-商品分类-商品单/多规格-商品标签订单管理:订单列表-订单挑选-订单导出-订单打印-批量发货-商品评价会员管理:会员列表-会员挑选-会员导出-虚拟会员-会员等级-会员分组-会员分销团长管理:团长列表......
  • 秒杀库存解决方案
    秒杀库存解决方案电商系统中秒杀是一种常见的业务场景需求,其中核心设计之一就是如何扣减库存。本篇主要分享一些常见库存扣减技术方案,库存扣减设计选择并非一味追求性能更佳,更多的应该考虑根据实际情况来进行架构取舍。在商品购买的过程中,库存的抵扣过程通常包括以下步骤:开启事......