首页 > 其他分享 >JVM——JVM级别下的高并发问题

JVM——JVM级别下的高并发问题

时间:2023-04-04 19:41:31浏览次数:48  
标签:同步 Java 虚拟机 并发 线程 内存 JVM 操作 级别


摘要

本文将深入的学习与分析JVM虚拟机的原理和相关的调优的相关实例。

JVM级别下的高并发问题

Java内存模型与线程

“让计算机并发执行若干个运算任务”与“更充分地利用计算机处理器的效能”之间的因果关系, 看起来顺理成章, 实际上它们之间的关系并没有想象中的那么简单, 其中一个重要的复杂性来源是绝大多数的运算任务都不可能只靠处理器“计算”就能完成, 处理器至少要与内存交互, 如读取运算数据、 存储运算结果等, 这个I/O操作是很难消除的( 无法仅靠寄存器来完成所有运算任务) 。 由于计算机的存储设备与处理器的运算速度有几个数量级的差距,所以现代计算机系统都不得不加入一层读写速度尽可能接近处理器运算速度的高速缓存( Cache) 来作为内存与处理器之间的缓冲: 将运算需要使用到的数据复制到缓存中, 让运算能快速进行, 当运算结束后再从缓存同步回内存之中, 这样处理器就无须等待缓慢的内存读写了。

基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾, 但是也为计算机系统带来更高的复杂度, 因为它引入了一个新的问题: 缓存一致性( Cache Coherence) 。 在多处理器系统中, 每个处理器都有自己的高速缓存, 而它们又共享同一主内存( MainMemory) , 如图12-1所示。 当多个处理器的运算任务都涉及同一块主内存区域时, 将可能导致各自的缓存数据不一致, 如果真的发生这种情况, 那同步回到主内存时以谁的缓存数据为准呢? 为了解决一致性的问题, 需要各个处理器访问缓存时都遵循一些协议, 在读写时要根据协议来进行操作, 这类协议有MSI、 MESI( Illinois Protocol) 、 MOSI、 Synapse、 Firefly及Dragon Protocol等。 在本章中将会多次提到的“内存模型”一词, 可以理解为在特定的操作协议下, 对特定的内存或高速缓存进行读写访问的过程抽象。 不同架构的物理机器可以拥有不一样的内存模型, 而Java虚拟机也有自己的内存模型, 并且这里介绍的内存访问操作与硬件的缓存访问操作具有很高的可比性。

JVM——JVM级别下的高并发问题_内存模型

除了增加高速缓存之外, 为了使得处理器内部的运算单元能尽量被充分利用, 处理器可能会对输入代码进行乱序执行( Out-Of-Order Execution) 优化, 处理器会在计算之后将乱序执行的结果重组, 保证该结果与顺序执行的结果是一致的, 但并不保证程序中各个语句计算的先后顺序与输入代码中的顺序一致, 因此, 如果存在一个计算任务依赖另外一个计算任务的中间结果, 那么其顺序性并不能靠代码的先后顺序来保证。 与处理器的乱序执行优化类似, Java虚拟机的即时编译器中也有类似的指令重排序( Instruction Reorder) 优化。

Java内存模型

Java内存模型的主要目标是定义程序中各个变量的访问规则, 即在虚拟机中将变量存储到内存和从内存中取出变量这样的底层细节。 此处的变量( Variables) 与Java编程中所说的变量有所区别, 它包括了实例字段、 静态字段和构成数组对象的元素, 但不包括局部变量与方法参数, 因为后者是线程私有的[3], 不会被共享, 自然就不会存在竞争问题。 为了获得较好的执行效能, Java内存模型并没有限制执行引擎使用处理器的特定寄存器或缓存来和主内存进行交互, 也没有限制即时编译器进行调整代码执行顺序这类优化措施。

Java内存模型规定了所有的变量都存储在主内存( Main Memory) 中( 此处的主内存与介绍物理硬件时的主内存名字一样, 两者也可以互相类比, 但此处仅是虚拟机内存的一部分) 。 每条线程还有自己的工作内存( Working Memory, 可与前面讲的处理器高速缓存类比) , 线程的工作内存中保存了被该线程使用到的变量的主内存副本拷贝[4], 线程对变量的所有操作( 读取、 赋值等) 都必须在工作内存中进行, 而不能直接读写主内存中的变量[5]。不同的线程之间也无法直接访问对方工作内存中的变量, 线程间变量值的传递均需要通过主内存来完成, 线程、 主内存、 工作内存三者的交互关系如图12-2所示。

JVM——JVM级别下的高并发问题_用户线程_02

这里所讲的主内存、 工作内存与本书第2章所讲的Java内存区域中的Java堆、 栈、 方法区等并不是同一个层次的内存划分, 这两者基本上是没有关系的, 如果两者一定要勉强对应起来, 那从变量、 主内存、 工作内存的定义来看, 主内存主要对应于Java堆中的对象实例数据部分[6], 而工作内存则对应于虚拟机栈中的部分区域。 从更低层次上说, 主内存就直接对应于物理硬件的内存, 而为了获取更好的运行速度, 虚拟机( 甚至是硬件系统本身的优化措施) 可能会让工作内存优先存储于寄存器和高速缓存中, 因为程序运行时主要访问读写的是工作内存。

内存间交互操作

关于主内存与工作内存之间具体的交互协议, 即一个变量如何从主内存拷贝到工作内存、 如何从工作内存同步回主内存之类的实现细节, Java内存模型中定义了以下8种操作来完成, 虚拟机实现时必须保证下面提及的每一种操作都是原子的、 不可再分的( 对于double和long类型的变量来说, load、 store、 read和write操作在某些平台上允许有例外, 这个问题在12.3.4节再讲) [1]。

  • lock( 锁定) : 作用于主内存的变量, 它把一个变量标识为一条线程独占的状态。
  • unlock( 解锁) : 作用于主内存的变量, 它把一个处于锁定状态的变量释放出来, 释放后的变量才可以被其他线程锁定。
  • read( 读取) : 作用于主内存的变量, 它把一个变量的值从主内存传输到线程的工作内存中, 以便随后的load动作使用。
  • load( 载入) : 作用于工作内存的变量, 它把read操作从主内存中得到的变量值放入工作内存的变量副本中。
  • use( 使用) : 作用于工作内存的变量, 它把工作内存中一个变量的值传递给执行引擎, 每当虚拟机遇到一个需要使用到变量的值的字节码指令时将会执行这个操作。
  • assign( 赋值) : 作用于工作内存的变量, 它把一个从执行引擎接收到的值赋给工作内存的变量, 每当虚拟机遇到一个给变量赋值的字节码指令时执行这个操作。
  • store( 存储) : 作用于工作内存的变量, 它把工作内存中一个变量的值传送到主内存中, 以便随后的write操作使用。
  • write( 写入) : 作用于主内存的变量, 它把store操作从工作内存中得到的变量的值放入主内存的变量中。
     

如果要把一个变量从主内存复制到工作内存, 那就要顺序地执行read和load操作, 如果要把变量从工作内存同步回主内存, 就要顺序地执行store和write操作。 注意, Java内存模型只要求上述两个操作必须按顺序执行, 而没有保证是连续执行。 也就是说, read与load之间、 store与write之间是可插入其他指令的, 如对主内存中的变量a、 b进行访问时, 一种可能出现顺序是read a、 read b、 load b、 load a。 除此之外, Java内存模型还规定了在执行上述8种基本操作时必须满足如下规则:

  • 不允许read和load、 store和write操作之一单独出现, 即不允许一个变量从主内存读取了但工作内存不接受, 或者从工作内存发起回写了但主内存不接受的情况出现。
  • 不允许一个线程丢弃它的最近的assign操作, 即变量在工作内存中改变了之后必须把该变化同步回主内存。
  • 不允许一个线程无原因地( 没有发生过任何assign操作) 把数据从线程的工作内存同步回主内存中。一个新的变量只能在主内存中“诞生”,
  • 不允许在工作内存中直接使用一个未被初始化( load或assign) 的变量, 换句话说, 就是对一个变量实施use、 store操作之前, 必须先执行过了assign和load操作。
  • 一个变量在同一个时刻只允许一条线程对其进行lock操作, 但lock操作可以被同一条线程重复执行多次, 多次执行lock后, 只有执行相同次数的unlock操作, 变量才会被解锁。
  • 如果对一个变量执行lock操作, 那将会清空工作内存中此变量的值, 在执行引擎使用这个变量前, 需要重新执行load或assign操作初始化变量的值。
  • 如果一个变量事先没有被lock操作锁定, 那就不允许对它执行unlock操作, 也不允许去unlock一个被其他线程锁定住的变量。
  • 对一个变量执行unlock操作之前, 必须先把此变量同步回主内存中( 执行store、 write操作) 。

这8种内存访问操作以及上述规则限定, 再加上稍后介绍的对volatile的一些特殊规定,就已经完全确定了Java程序中哪些内存访问操作在并发下是安全的。 由于这种定义相当严谨但又十分烦琐, 实践起来很麻烦, 所以在12.3.6节中笔者将介绍这种定义的一个等效判断原则——先行发生原则, 用来确定一个访问在并发环境下是否安全。

Voilate关键字

请见:高级程序员——java语言基础问题(1)_庄小焱

对于long和double型变量的特殊规则

Java内存模型要求lock、 unlock、 read、 load、 assign、 use、 store、 write这8个操作都具有原子性, 但是对于64位的数据类型( long和double) , 在模型中特别定义了一条相对宽松的规定: 允许虚拟机将没有被volatile修饰的64位数据的读写操作划分为两次32位的操作来进行, 即允许虚拟机实现选择可以不保证64位数据类型的load、 store、 read和write这4个操作的原子性, 这点就是所谓的long和double的非原子性协定( Nonatomic Treatment ofdouble andlong Variables)。

如果有多个线程共享一个并未声明为volatile的long或double类型的变量, 并且同时对它们进行读取和修改操作, 那么某些线程可能会读取到一个既非原值, 也不是其他线程修改值的代表了“半个变量”的数值。

不过这种读取到“半个变量”的情况非常罕见( 在目前商用Java虚拟机中不会出现) , 因为Java内存模型虽然允许虚拟机不把long和double变量的读写实现成原子操作, 但允许虚拟机选择把这些操作实现为具有原子性的操作, 而且还“强烈建议”虚拟机这样实现。 在实际开发中, 目前各种平台下的商用虚拟机几乎都选择把64位数据的读写操作作为原子操作来对待因此我们在编写代码时一般不需要把用到的long和double变量专门声明为volatile。

原子性、 可见性与有序性

原子性( Atomicity) : 由Java内存模型来直接保证的原子性变量操作包括read、 load、assign、 use、 store和write, 我们大致可以认为基本数据类型的访问读写是具备原子性的( 例外就是long和double的非原子性协定, 读者只要知道这件事情就可以了, 无须太过在意这些几乎不会发生的例外情况) 。

如果应用场景需要一个更大范围的原子性保证( 经常会遇到) , Java内存模型还提供了lock和unlock操作来满足这种需求, 尽管虚拟机未把lock和unlock操作直接开放给用户使用,但是却提供了更高层次的字节码指令monitorenter和monitorexit来隐式地使用这两个操作, 这两个字节码指令反映到Java代码中就是同步块——synchronized关键字, 因此在synchronized块之间的操作也具备原子性

可见性( Visibility)

除了volatile之外, Java还有两个关键字能实现可见性, 即synchronized和final。 同步块的可见性是由“对一个变量执行unlock操作之前, 必须先把此变量同步回主内存中( 执行store、write操作) ”这条规则获得的, 而final关键字的可见性是指: 被final修饰的字段在构造器中一旦初始化完成, 并且构造器没有把“this”的引用传递出去( this引用逃逸是一件很危险的事情, 其他线程有可能通过这个引用访问到“初始化了一半”的对象) , 那在其他线程中就能看见final字段的值。 如代码清单12-7所示, 变量i与j都具备可见性, 它们无须同步就能被其他线程正确访问。

final与可见性
public static final int i;
public final int j;
static{
i=0;
//do something
}{/
/也可以选择在构造函数中初始化
j=0;
//do something
}

有序性( Ordering)

Java语言提供了volatile和synchronized两个关键字来保证线程之间操作的有序性, volatile关键字本身就包含了禁止指令重排序的语义, 而synchronized则是由“一个变量在同一个时刻只允许一条线程对其进行lock操作”这条规则获得的, 这条规则决定了持有同一个锁的两个同步块只能串行地进入。

介绍完并发中3种重要的特性后, 读者有没有发现synchronized关键字在需要这3种特性的时候都可以作为其中一种的解决方案? 看起来很“万能”吧。 的确, 大部分的并发控制操作都能使用synchronized来完成。 synchronized的“万能”也间接造就了它被程序员滥用的局面,越“万能”的并发控制, 通常会伴随着越大的性能影响。

happens-before

如果Java内存模型中所有的有序性都仅仅靠volatile和synchronized来完成, 那么有一些操作将会变得很烦琐, 但是我们在编写Java并发代码的时候并没有感觉到这一点, 这是因为Java语言中有一个“先行发生”( happens-before) 的原则。 这个原则非常重要, 它是判断数据是否存在竞争、 线程是否安全的主要依据, 依靠这个原则, 我们可以通过几条规则一揽子地解决并发环境下两个操作之间是否可能存在冲突的所有问题。

高级程序员——java语言基础问题(1)_庄小焱

Java与线程

并发不一定要依赖多线程( 如PHP中很常见的多进程并发) , 但是在Java里面谈论并发, 大多数都与线程脱不开关系。 既然我们这本书探讨的话题是Java虚拟机的特性, 那讲到Java线程, 我们就从Java线程在虚拟机中的实现开始讲起。

线程的实现

主流的操作系统都提供了线程实现, Java语言则提供了在不同硬件和操作系统平台下对线程操作的统一处理, 每个已经执行start( ) 且还未结束的java.lang.Thread类的实例就代表了一个线程。 我们注意到Thread类与大部分的Java API有显著的差别, 它的所有关键方法都是声明为Native的。 在Java API中, 一个Native方法往往意味着这个方法没有使用或无法使用平台无关的手段来实现( 当然也可能是为了执行效率而使用Native方法, 不过, 通常最高效率的手段也就是平台相关的手段) 。 正因为如此, 作者把本节的标题定为“线程的实现”而不是“Java线程的实现”。

实现线程主要有3种方式: 使用内核线程实现、 使用用户线程实现和使用用户线程加轻量级进程混合实现。

1.使用内核线程实现:内核线程( Kernel-Level Thread,KLT) 就是直接由操作系统内核( Kernel, 下称内核) 支持的线程, 这种线程由内核来完成线程切换, 内核通过操纵调度器( Scheduler) 对线程进行调度, 并负责将线程的任务映射到各个处理器上。 每个内核线程可以视为内核的一个分身,这样操作系统就有能力同时处理多件事情, 支持多线程的内核就叫做多线程内核( MultiThreads Kernel) 。

程序一般不会直接去使用内核线程, 而是去使用内核线程的一种高级接口——轻量级进程( Light Weight Process,LWP) , 轻量级进程就是我们通常意义上所讲的线程, 由于每个轻量级进程都由一个内核线程支持, 因此只有先支持内核线程, 才能有轻量级进程。 这种轻量级进程与内核线程之间1:1的关系称为一对一的线程模型, 如图12-3所示。

JVM——JVM级别下的高并发问题_内存模型_03

由于内核线程的支持, 每个轻量级进程都成为一个独立的调度单元, 即使有一个轻量级进程在系统调用中阻塞了, 也不会影响整个进程继续工作, 但是轻量级进程具有它的局限性: 首先, 由于是基于内核线程实现的, 所以各种线程操作, 如创建、 析构及同步, 都需要进行系统调用。 而系统调用的代价相对较高, 需要在用户态( User Mode) 和内核态( KernelMode) 中来回切换。 其次, 每个轻量级进程都需要有一个内核线程的支持, 因此轻量级进程要消耗一定的内核资源( 如内核线程的栈空间) , 因此一个系统支持轻量级进程的数量是有限的。

2.使用用户线程实现:从广义上来讲, 一个线程只要不是内核线程, 就可以认为是用户线程( User Thread,UT) , 因此, 从这个定义上来讲, 轻量级进程也属于用户线程, 但轻量级进程的实现始终是建立在内核之上的, 许多操作都要进行系统调用, 效率会受到限制。而狭义上的用户线程指的是完全建立在用户空间的线程库上, 系统内核不能感知线程存在的实现。 用户线程的建立、 同步、 销毁和调度完全在用户态中完成, 不需要内核的帮助。如果程序实现得当, 这种线程不需要切换到内核态, 因此操作可以是非常快速且低消耗的,也可以支持规模更大的线程数量, 部分高性能数据库中的多线程就是由用户线程实现的。 这种进程与用户线程之间1: N的关系称为一对多的线程模型, 如图12-4所示。

JVM——JVM级别下的高并发问题_用户线程_04

使用用户线程的优势在于不需要系统内核支援, 劣势也在于没有系统内核的支援, 所有的线程操作都需要用户程序自己处理。 线程的创建、 切换和调度都是需要考虑的问题, 而且由于操作系统只把处理器资源分配到进程, 那诸如“阻塞如何处理”、 “多处理器系统中如何将线程映射到其他处理器上”这类问题解决起来将会异常困难, 甚至不可能完成。 因而使用用户线程实现的程序一般都比较复杂[1], 除了以前在不支持多线程的操作系统中( 如DOS)的多线程程序与少数有特殊需求的程序外, 现在使用用户线程的程序越来越少了, Java、Ruby等语言都曾经使用过用户线程, 最终又都放弃使用它。

3.使用用户线程加轻量级进程混合实现:线程除了依赖内核线程实现和完全由用户程序自己实现之外, 还有一种将内核线程与用户线程一起使用的实现方式。 在这种混合实现下, 既存在用户线程, 也存在轻量级进程。 用户线程还是完全建立在用户空间中, 因此用户线程的创建、 切换、 析构等操作依然廉价, 并且可以支持大规模的用户线程并发。 而操作系统提供支持的轻量级进程则作为用户线程和内核线程之间的桥梁, 这样可以使用内核提供的线程调度功能及处理器映射, 并且用户线程的系统调用要通过轻量级线程来完成, 大大降低了整个进程被完全阻塞的风险。 在这种混合模式中, 用户线程与轻量级进程的数量比是不定的, 即为N: M的关系, 如图12-5所示, 这种就是多对多的线程模型。

JVM——JVM级别下的高并发问题_用户线程_05

4.Java线程的实现:Java线程在JDK 1.2之前, 是基于称为“绿色线程”( Green Threads) 的用户线程实现的,而在JDK 1.2中, 线程模型替换为基于操作系统原生线程模型来实现。 因此, 在目前的JDK版本中, 操作系统支持怎样的线程模型, 在很大程度上决定了Java虚拟机的线程是怎样映射的, 这点在不同的平台上没有办法达成一致, 虚拟机规范中也并未限定Java线程需要使用哪种线程模型来实现。 线程模型只对线程的并发规模和操作成本产生影响, 对Java程序的编码和运行过程来说, 这些差异都是透明的。对于Sun JDK来说, 它的Windows版与Linux版都是使用一对一的线程模型实现的, 一条Java线程就映射到一条轻量级进程之中, 因为Windows和Linux系统提供的线程模型就是一对一的[2]。而在Solaris平台中, 由于操作系统的线程特性可以同时支持一对一( 通过Bound Threads或Alternate Libthread实现) 及多对多( 通过LWP/Thread Based Synchronization实现) 的线程模型, 因此在Solaris版的JDK中也对应提供了两个平台专有的虚拟机参数: -XX:+UseLWPSynchronization( 默认值) 和-XX: +UseBoundThreads来明确指定虚拟机使用哪种线程模型。

Java线程调度

线程调度是指系统为线程分配处理器使用权的过程,主要调度方式有两种,分别是协同式线程调度(Cooperative Threads-Scheduling )和抢占式线程调度(Preemptive Threads-Scheduling ) 。

如果使用协同式调度的多线程系统, 线程的执行时间由线程本身来控制, 线程把自己的工作执行完了之后, 要主动通知系统切换到另外一个线程上。 协同式多线程的最大好处是实现简单, 而且由于线程要把自己的事情干完后才会进行线程切换, 切换操作对线程自己是可知的, 所以没有什么线程同步的问题。 Lua语言中的“协同例程”就是这类实现。 它的坏处也很明显: 线程执行时间不可控制, 甚至如果一个线程编写有问题, 一直不告知系统进行线程切换, 那么程序就会一直阻塞在那里。 很久以前的Windows 3.x系统就是使用协同式来实现多进程多任务的, 相当不稳定, 一个进程坚持不让出CPU执行时间就可能会导致整个系统崩溃。

如果使用抢占式调度的多线程系统, 那么每个线程将由系统来分配执行时间, 线程的切换不由线程本身来决定( 在Java中, Thread.yield( ) 可以让出执行时间, 但是要获取执行时间的话, 线程本身是没有什么办法的) 。 在这种实现线程调度的方式下, 线程的执行时间是系统可控的, 也不会有一个线程导致整个进程阻塞的问题, Java使用的线程调度方式就是抢占式调度[1]。 与前面所说的Windows 3.x的例子相对, 在Windows 9x/NT内核中就是使用抢占式来实现多进程的, 当一个进程出了问题, 我们还可以使用任务管理器把这个进程“杀掉”,而不至于导致系统崩溃。

虽然Java线程调度是系统自动完成的, 但是我们还是可以“建议”系统给某些线程多分配一点执行时间, 另外的一些线程则可以少分配一点——这项操作可以通过设置线程优先级来完成。 Java语言一共设置了10个级别的线程优先级( Thread.MIN_PRIORITY至
Thread.MAX_PRIORITY) , 在两个线程同时处于Ready状态时, 优先级越高的线程越容易被系统选择执行。

不过, 线程优先级并不是太靠谱, 原因是Java的线程是通过映射到系统的原生线程上来实现的, 所以线程调度最终还是取决于操作系统, 虽然现在很多操作系统都提供线程优先级的概念, 但是并不见得能与Java线程的优先级一一对应, 如Solaris中有2147483648( 232) 种优先级, 但Windows中就只有7种, 比Java线程优先级多的系统还好说, 中间留下一点空位就可以了, 但比Java线程优先级少的系统, 就不得不出现几个优先级相同的情况了, 表12-1显示了Java线程优先级与Windows线程优先级之间的对应关系, Windows平台的JDK中使用了除THREAD_PRIORITY_IDLE之外的其余6种线程优先级

JVM——JVM级别下的高并发问题_用户线程_06

上文说到“线程优先级并不是太靠谱”, 不仅仅是说在一些平台上不同的优先级实际会变得相同这一点, 还有其他情况让我们不能太依赖优先级: 优先级可能会被系统自行改变。 例如, 在Windows系统中存在一个称为“优先级推进器”( Priority Boosting, 当然它可以被关闭掉) 的功能, 它的大致作用就是当系统发现一个线程执行得特别“勤奋努力”的话, 可能会越过线程优先级去为它分配执行时间。 因此, 我们不能在程序中通过优先级来完全准确地判断一组状态都为Ready的线程将会先执行哪一个。

线程安全与锁优化

了解了什么是线程安全之后, 紧接着的一个问题就是我们应该如何实现线程安全, 这听起来似乎是一件由代码如何编写来决定的事情, 确实, 如何实现线程安全与代码编写有很大的关系, 但虚拟机提供的同步和锁机制也起到了非常重要的作用。 本节中, 代码编写如何实现线程安全和虚拟机如何实现同步与锁这两者都会有所涉及, 相对而言更偏重后者一些, 只要读者了解了虚拟机线程安全手段的运作过程, 自己去思考代码如何编写并不是一件困难的事情。

1.互斥同步

斥同步( Mutual Exclusion& Synchronization) 是常见的一种并发正确性保障手段。 同步是指在多个线程并发访问共享数据时, 保证共享数据在同一个时刻只被一个( 或者是一些,使用信号量的时候) 线程使用。 而互斥是实现同步的一种手段, 临界区( CriticalSection) 、 互斥量( Mutex) 和信号量( Semaphore) 都是主要的互斥实现方式。 因此, 在这4个字里面, 互斥是因, 同步是果; 互斥是方法, 同步是目的。

在Java中, 最基本的互斥同步手段就是synchronized关键字, synchronized关键字经过编译之后, 会在同步块的前后分别形成monitorenter和monitorexit这两个字节码指令, 这两个字节码都需要一个reference类型的参数来指明要锁定和解锁的对象。 如果Java程序中的synchronized明确指定了对象参数, 那就是这个对象的reference; 如果没有明确指定, 那就根据synchronized修饰的是实例方法还是类方法, 去取对应的对象实例或Class对象来作为锁对象。

根据虚拟机规范的要求, 在执行monitorenter指令时, 首先要尝试获取对象的锁。 如果这个对象没被锁定, 或者当前线程已经拥有了那个对象的锁, 把锁的计数器加1, 相应的, 在执行monitorexit指令时会将锁计数器减1, 当计数器为0时, 锁就被释放。 如果获取对象锁失败, 那当前线程就要阻塞等待, 直到对象锁被另外一个线程释放为止。

在虚拟机规范对monitorenter和monitorexit的行为描述中, 有两点是需要特别注意的。 首先, synchronized同步块对同一条线程来说是可重入的, 不会出现自己把自己锁死的问题。 其次, 同步块在已进入的线程执行完之前, 会阻塞后面其他线程的进入。 第12章讲过, Java的线程是映射到操作系统的原生线程之上的, 如果要阻塞或唤醒一个线程, 都需要操作系统来帮忙完成, 这就需要从用户态转换到核心态中, 因此状态转换需要耗费很多的处理器时间。对于代码简单的同步块( 如被synchronized修饰的getter( ) 或setter( ) 方法) , 状态转换消耗的时间有可能比用户代码执行的时间还要长。 所以synchronized是Java语言中一个重量级( Heavyweight) 的操作, 有经验的程序员都会在确实必要的情况下才使用这种操作。 而虚拟机本身也会进行一些优化, 譬如在通知操作系统阻塞线程之前加入一段自旋等待过程, 避免频繁地切入到核心态之中。

除了synchronized之外, 我们还可以使用java.util.concurrent( 下文称J.U.C) 包中的重入锁( ReentrantLock) 来实现同步, 在基本用法上, ReentrantLock与synchronized很相似, 他们都具备一样的线程重入特性, 只是代码写法上有点区别, 一个表现为API层面的互斥锁( lock( ) 和unlock( ) 方法配合try/finally语句块来完成) , 另一个表现为原生语法层面的互斥锁。 不过, 相比synchronized,ReentrantLock增加了一些高级功能, 主要有以下3项: 等待可中断、 可实现公平锁, 以及锁可以绑定多个条件。

等待可中断是指当持有锁的线程长期不释放锁的时候, 正在等待的线程可以选择放弃等待, 改为处理其他事情, 可中断特性对处理执行时间非常长的同步块很有帮助。公平锁是指多个线程在等待同一个锁时, 必须按照申请锁的时间顺序来依次获得锁; 而
非公平锁则不保证这一点, 在锁被释放时, 任何一个等待锁的线程都有机会获得锁。synchronized中的锁是非公平的, ReentrantLock默认情况下也是非公平的, 但可以通过带布尔值的构造函数要求使用公平锁。锁绑定多个条件是指一个ReentrantLock对象可以同时绑定多个Condition对象, 而在synchronized中, 锁对象的wait( ) 和notify( ) 或notifyAll( ) 方法可以实现一个隐含的条件, 如果要和多于一个的条件关联的时候, 就不得不额外地添加一个锁, 而ReentrantLock则无须这样做, 只需要多次调用newCondition( ) 方法即可。

2、非阻塞同步

互斥同步最主要的问题就是进行线程阻塞和唤醒所带来的性能问题, 因此这种同步也称为阻塞同步( Blocking Synchronization) 。 从处理问题的方式上说, 互斥同步属于一种悲观的并发策略, 总是认为只要不去做正确的同步措施( 例如加锁) , 那就肯定会出现问题, 无论共享数据是否真的会出现竞争, 它都要进行加锁( 这里讨论的是概念模型, 实际上虚拟机会优化掉很大一部分不必要的加锁) 、 用户态核心态转换、 维护锁计数器和检查是否有被阻塞的线程需要唤醒等操作。 随着硬件指令集的发展, 我们有了另外一个选择: 基于冲突检测的乐观并发策略, 通俗地说, 就是先进行操作, 如果没有其他线程争用共享数据, 那操作就成功了; 如果共享数据有争用, 产生了冲突, 那就再采取其他的补偿措施( 最常见的补偿措施就是不断地重试, 直到成功为止) , 这种乐观的并发策略的许多实现都不需要把线程挂起,因此这种同步操作称为非阻塞同步( Non-Blocking Synchronization) 。

CAS指令需要有3个操作数, 分别是内存位置( 在Java中可以简单理解为变量的内存地址, 用V表示) 、 旧的预期值( 用A表示) 和新值( 用B表示) 。 CAS指令执行时, 当且仅当V符合旧预期值A时, 处理器用新值B更新V的值, 否则它就不执行更新, 但是无论是否更新了V的值, 都会返回V的旧值, 上述的处理过程是一个原子操作。

在JDK 1.5之后, Java程序中才可以使用CAS操作, 该操作由sun.misc.Unsafe类里面的compareAndSwapInt( ) 和compareAndSwapLong( ) 等几个方法包装提供, 虚拟机在内部对这些方法做了特殊处理, 即时编译出来的结果就是一条平台相关的处理器CAS指令, 没有方法调用的过程, 或者可以认为是无条件内联进去了[2]。由于Unsafe类不是提供给用户程序调用的类( Unsafe.getUnsafe( ) 的代码中限制了只有启动类加载器( Bootstrap ClassLoader) 加载的Class才能访问它) , 因此, 如果不采用反射
手段, 我们只能通过其他的Java API来间接使用它, 如J.U.C包里面的整数原子类, 其中的compareAndSet( ) 和getAndIncrement( ) 等方法都使用了Unsafe类的CAS操作。

尽管CAS看起来很美, 但显然这种操作无法涵盖互斥同步的所有使用场景, 并且CAS从语义上来说并不是完美的, 存在这样的一个逻辑漏洞: 如果一个变量V初次读取的时候是A值, 并且在准备赋值的时候检查到它仍然为A值, 那我们就能说它的值没有被其他线程改变过了吗? 如果在这段期间它的值曾经被改成了B, 后来又被改回为A, 那CAS操作就会误认为它从来没有被改变过。 这个漏洞称为CAS操作的“ABA”问题。 J.U.C包为了解决这个问题,提供了一个带有标记的原子引用类“AtomicStampedReference”, 它可以通过控制变量值的版本来保证CAS的正确性。 不过目前来说这个类比较“鸡肋”, 大部分情况下ABA问题不会影响程序并发的正确性, 如果需要解决ABA问题, 改用传统的互斥同步可能会比原子类更高效。

3.无同步方案

要保证线程安全, 并不是一定就要进行同步, 两者没有因果关系。 同步只是保证共享数据争用时的正确性的手段, 如果一个方法本来就不涉及共享数据, 那它自然就无须任何同步措施去保证正确性, 因此会有一些代码天生就是线程安全的, 笔者简单地介绍其中的两类。

可重入代码( Reentrant Code) : 这种代码也叫做纯代码( Pure Code) , 可以在代码执行的任何时刻中断它, 转而去执行另外一段代码( 包括递归调用它本身) , 而在控制权返回后, 原来的程序不会出现任何错误。 相对线程安全来说, 可重入性是更基本的特性, 它可以保证线程安全, 即所有的可重入的代码都是线程安全的, 但是并非所有的线程安全的代码都是可重入的。

可重入代码有一些共同的特征, 例如不依赖存储在堆上的数据和公用的系统资源、 用到的状态量都由参数中传入、 不调用非可重入的方法等。 我们可以通过一个简单的原则来判断代码是否具备可重入性: 如果一个方法, 它的返回结果是可以预测的, 只要输入了相同的数据, 就都能返回相同的结果, 那它就满足可重入性的要求, 当然也就是线程安全的。

线程本地存储( Thread Local Storage) : 如果一段代码中所需要的数据必须与其他代码共享, 那就看看这些共享数据的代码是否能保证在同一个线程中执行? 如果能保证, 我们就可以把共享数据的可见范围限制在同一个线程之内, 这样, 无须同步也能保证线程之间不出现数据争用的问题。符合这种特点的应用并不少见, 大部分使用消费队列的架构模式( 如“生产者-消费者”模式) 都会将产品的消费过程尽量在一个线程中消费完, 其中最重要的一个应用实例就是经典Web交互模型中的“一个请求对应一个服务器线程”( Thread-per-Request) 的处理方式, 这种处理方式的广泛应用使得很多Web服务端应用都可以使用线程本地存储来解决线程安全问题

锁优化

高效并发是从JDK 1.5到JDK 1.6的一个重要改进, HotSpot虚拟机开发团队在这个版本上花费了大量的精力去实现各种锁优化技术, 如适应性自旋( Adaptive Spinning) 、 锁消除( Lock Elimination) 、 锁粗化( Lock Coarsening) 、 轻量级锁( Lightweight Locking) 和偏向锁( Biased Locking) 等, 这些技术都是为了在线程之间更高效地共享数据, 以及解决竞争问题, 从而提高程序的执行效率。

自旋锁与自适应自旋

自旋锁在JDK 1.4.2中就已经引入, 只不过默认是关闭的, 可以使用-XX: +UseSpinning参数来开启, 在JDK 1.6中就已经改为默认开启了。 自旋等待不能代替阻塞, 且先不说对处理器数量的要求, 自旋等待本身虽然避免了线程切换的开销, 但它是要占用处理器时间的,因此, 如果锁被占用的时间很短, 自旋等待的效果就会非常好, 反之, 如果锁被占用的时间很长, 那么自旋的线程只会白白消耗处理器资源, 而不会做任何有用的工作, 反而会带来性能上的浪费。 因此, 自旋等待的时间必须要有一定的限度, 如果自旋超过了限定的次数仍然没有成功获得锁, 就应当使用传统的方式去挂起线程了。 自旋次数的默认值是10次, 用户可以使用参数-XX: PreBlockSpin来更改。

在JDK 1.6中引入了自适应的自旋锁。 自适应意味着自旋的时间不再固定了, 而是由前一次在同一个锁上的自旋时间及锁的拥有者的状态来决定。 如果在同一个锁对象上, 自旋等待刚刚成功获得过锁, 并且持有锁的线程正在运行中, 那么虚拟机就会认为这次自旋也很有可能再次成功, 进而它将允许自旋等待持续相对更长的时间, 比如100个循环。 另外, 如果对于某个锁, 自旋很少成功获得过, 那在以后要获取这个锁时将可能省略掉自旋过程, 以避免浪费处理器资源。 有了自适应自旋, 随着程序运行和性能监控信息的不断完善, 虚拟机对程序锁的状况预测就会越来越准确, 虚拟机就会变得越来越“聪明”了。

锁消除

锁消除是指虚拟机即时编译器在运行时, 对一些代码上要求同步, 但是被检测到不可能存在共享数据竞争的锁进行消除。 锁消除的主要判定依据来源于逃逸分析的数据支持( 第11章已经讲解过逃逸分析技术) , 如果判断在一段代码中, 堆上的所有数据都不会逃逸出去从而被其他线程访问到, 那就可以把它们当做栈上数据对待, 认为它们是线程私有的, 同步加锁自然就无须进行。也许读者会有疑问, 变量是否逃逸, 对于虚拟机来说需要使用数据流分析来确定, 但是程序员自己应该是很清楚的, 怎么会在明知道不存在数据争用的情况下要求同步呢?

答案是有许多同步措施并不是程序员自己加入的, 同步的代码在Java程序中的普遍程度也许超过了大部分读者的想象。 我们来看看代码清单13-6中的例子, 这段非常简单的代码仅仅是输出3个字符串相加的结果, 无论是源码字面上还是程序语义上都没有同步。

JVM——JVM级别下的高并发问题_内存模型_07

现在大家还认为这段代码没有涉及同步吗? 每个StringBuffer.append( ) 方法中都有一个同步块, 锁就是sb对象。 虚拟机观察变量sb, 很快就会发现它的动态作用域被限制在concatString( ) 方法内部。 也就是说, sb的所有引用永远不会“逃逸”到concatString( ) 方法之外, 其他线程无法访问到它, 因此, 虽然这里有锁, 但是可以被安全地消除掉, 在即时编译之后, 这段代码就会忽略掉所有的同步而直接执行了。

锁粗化

原则上, 我们在编写代码的时候, 总是推荐将同步块的作用范围限制得尽量小——只在共享数据的实际作用域中才进行同步, 这样是为了使得需要同步的操作数量尽可能变小, 如果存在锁竞争, 那等待锁的线程也能尽快拿到锁。大部分情况下, 上面的原则都是正确的, 但是如果一系列的连续操作都对同一个对象反复加锁和解锁, 甚至加锁操作是出现在循环体中的, 那即使没有线程竞争, 频繁地进行互斥同步操作也会导致不必要的性能损耗。代码清单13-7中连续的append( ) 方法就属于这类情况。 如果虚拟机探测到有这样一串零碎的操作都对同一个对象加锁, 将会把加锁同步的范围扩展( 粗化) 到整个操作序列的外部, 以代码清单13-7为例, 就是扩展到第一个append( ) 操作之前直至最后一个append( )操作之后, 这样只需要加锁一次就可以了。

轻量级锁

轻量级锁是JDK 1.6之中加入的新型锁机制, 它名字中的“轻量级”是相对于使用操作系统互斥量来实现的传统锁而言的, 因此传统的锁机制就称为“重量级”锁。 首先需要强调一点的是, 轻量级锁并不是用来代替重量级锁的, 它的本意是在没有多线程竞争的前提下, 减少传统的重量级锁使用操作系统互斥量产生的性能消耗。

要理解轻量级锁, 以及后面会讲到的偏向锁的原理和运作过程, 必须从HotSpot虚拟机的对象( 对象头部分) 的内存布局开始介绍。 HotSpot虚拟机的对象头( Object Header) 分为两部分信息, 第一部分用于存储对象自身的运行时数据, 如哈希码( HashCode) 、 GC分代年龄( Generational GC Age) 等, 这部分数据的长度在32位和64位的虚拟机中分别为32bit和64bit, 官方称它为“Mark Word”, 它是实现轻量级锁和偏向锁的关键。 另外一部分用于存储指向方法区对象类型数据的指针, 如果是数组对象的话, 还会有一个额外的部分用于存储数组长度。

对象头信息是与对象自身定义的数据无关的额外存储成本, 考虑到虚拟机的空间效率, Mark Word被设计成一个非固定的数据结构以便在极小的空间内存储尽量多的信息, 它会根据对象的状态复用自己的存储空间。 例如, 在32位的HotSpot虚拟机中对象未被锁定的状态下, Mark Word的32bit空间中的25bit用于存储对象哈希码( HashCode) , 4bit用于存储对象分代年龄, 2bit用于存储锁标志位, 1bit固定为0, 在其他状态( 轻量级锁定、 重量级锁定、 GC标记、 可偏向) 下对象的存储内容见表13-1。

JVM——JVM级别下的高并发问题_jvm_08

简单地介绍了对象的内存布局后, 我们把话题返回到轻量级锁的执行过程上。 在代码进入同步块的时候, 如果此同步对象没有被锁定( 锁标志位为“01”状态) , 虚拟机首先将在当前线程的栈帧中建立一个名为锁记录( Lock Record) 的空间, 用于存储锁对象目前的MarkWord的拷贝( 官方把这份拷贝加了一个Displaced前缀, 即Displaced Mark Word) , 这时候线程堆栈与对象头的状态如图13-3所示。

然后, 虚拟机将使用CAS操作尝试将对象的Mark Word更新为指向Lock Record的指针。如果这个更新动作成功了, 那么这个线程就拥有了该对象的锁, 并且对象Mark Word的锁标志位( Mark Word的最后2bit) 将转变为“00”, 即表示此对象处于轻量级锁定状态, 这时候线程堆栈与对象头的状态如图13-4所示。

JVM——JVM级别下的高并发问题_用户线程_09

如果这个更新操作失败了, 虚拟机首先会检查对象的Mark Word是否指向当前线程的栈帧, 如果只说明当前线程已经拥有了这个对象的锁, 那就可以直接进入同步块继续执行, 否则说明这个锁对象已经被其他线程抢占了。 如果有两条以上的线程争用同一个锁, 那轻量级锁就不再有效, 要膨胀为重量级锁, 锁标志的状态值变为“10”, Mark Word中存储的就是指向重量级锁( 互斥量) 的指针, 后面等待锁的线程也要进入阻塞状态。

上面描述的是轻量级锁的加锁过程, 它的解锁过程也是通过CAS操作来进行的, 如果对象的Mark Word仍然指向着线程的锁记录, 那就用CAS操作把对象当前的Mark Word和线程中复制的Displaced Mark Word替换回来, 如果替换成功, 整个同步过程就完成了。 如果替换失败, 说明有其他线程尝试过获取该锁, 那就要在释放锁的同时, 唤醒被挂起的线程。

轻量级锁能提升程序同步性能的依据是“对于绝大部分的锁, 在整个同步周期内都是不存在竞争的”, 这是一个经验数据。 如果没有竞争, 轻量级锁使用CAS操作避免了使用互斥量的开销, 但如果存在锁竞争, 除了互斥量的开销外, 还额外发生了CAS操作, 因此在有竞争的情况下, 轻量级锁会比传统的重量级锁更慢。

偏向锁

偏向锁可以提高带有同步但无竞争的程序性能。 它同样是一个带有效益权衡( TradeOff) 性质的优化, 也就是说, 它并不一定总是对程序运行有利, 如果程序中大多数的锁总是被多个不同的线程访问, 那偏向模式就是多余的。 在具体问题具体分析的前提下, 有时候使用参数-XX: -UseBiasedLocking来禁止偏向锁优化反而可以提升性能。

偏向锁也是JDK 1.6中引入的一项锁优化, 它的目的是消除数据在无竞争情况下的同步原语, 进一步提高程序的运行性能。 如果说轻量级锁是在无竞争的情况下使用CAS操作去消除同步使用的互斥量, 那偏向锁就是在无竞争的情况下把整个同步都消除掉, 连CAS操作都不做了。

偏向锁的“偏”, 就是偏心的“偏”、 偏袒的“偏”, 它的意思是这个锁会偏向于第一个获得它的线程, 如果在接下来的执行过程中, 该锁没有被其他的线程获取, 则持有偏向锁的线程将永远不需要再进行同步。

如果读者读懂了前面轻量级锁中关于对象头Mark Word与线程之间的操作过程, 那偏向锁的原理理解起来就会很简单。 假设当前虚拟机启用了偏向锁( 启用参数-XX:+UseBiasedLocking, 这是JDK 1.6的默认值) , 那么, 当锁对象第一次被线程获取的时候,虚拟机将会把对象头中的标志位设为“01”, 即偏向模式。 同时使用CAS操作把获取到这个锁的线程的ID记录在对象的Mark Word之中, 如果CAS操作成功, 持有偏向锁的线程以后每次进入这个锁相关的同步块时, 虚拟机都可以不再进行任何同步操作( 例如Locking、 Unlocking及对Mark Word的Update等) 。

当有另外一个线程去尝试获取这个锁时, 偏向模式就宣告结束。 根据锁对象目前是否处于被锁定的状态, 撤销偏向( Revoke Bias) 后恢复到未锁定( 标志位为“01”) 或轻量级锁定( 标志位为“00”) 的状态, 后续的同步操作就如上面介绍的轻量级锁那样执行。 偏向锁、 轻量级锁的状态转化及对象Mark Word的关系如图13-5所示。

JVM——JVM级别下的高并发问题_内存模型_10

标签:同步,Java,虚拟机,并发,线程,内存,JVM,操作,级别
From: https://blog.51cto.com/u_13643065/6169252

相关文章

  • 并发编程——JUC并发大厂面试问题
    摘要现如今,不管是应届毕业生还是工作了三五年之内的工程师,在面试招聘的时候JUC并发编程的是必须掌握的一个技能,否者你将会被面试官玩弄。本博文将整理有关于的JUC的大厂面试问题和答案。帮助大家在面试过程中能够回答面试官问题的一二。同时本人也总结相关的面试问题的在相关文档中......
  • 学了这么久的高并发编程,连Java中的并发原子类都不知道?
    摘要:保证线程安全是Java并发编程必须要解决的重要问题,本文和大家聊聊Java中的并发原子类,看它如何确保多线程的数据一致性。本文分享自华为云社区《学了这么久的高并发编程,连Java中的并发原子类都不知道?这也太Low了吧》,作者:冰河。今天我们一起来聊聊Java中的并发原子类。在 j......
  • 高并发系统设计——API网关技术选型
    摘要你的垂直电商系统在经过微服务化拆分之后,已经运行了一段时间了,系统的扩展性得到了很大的提升,也能够比较平稳地度过高峰期的流量了。不过最近你发现,随着自己的电商网站知名度越来越高,系统迎来了一些“不速之客”,在凌晨的时候,系统中的搜索商品和用户接口的调用量,会有激剧的上升,持......
  • 高并发系统设计——负载均衡技术选型
    摘要高并发系统设计的三个通用方法:缓存、异步和横向扩展,不过在实际的工作中,你经常使用的负载均衡的组件应该算是Nginx,它的作用是承接前端的HTTP请求,然后将它们按照多种策略,分发给后端的多个业务服务器上。这样,我们可以随时通过扩容业务服务器的方式,来抵挡突发的流量高峰。与DNS......
  • Tomcat 9.0.26 高并发场景下DeadLock问题排查与修复
    vivo互联网技术微信公众号 作者:黄卫兵、陈锦霞一、Tomcat容器9.0.26版本Deadlock问题1.1问题现象1.1.1 发生Deadlock的背景某接口/get.do压测,3分钟后,成功事务数TPS由1W骤降至0。1.1.2 Tomcat服务器出现大量的CLOSE_WAIT被压测服务器,出现TCPCLOSE_WAIT状态个数在200~......
  • 高并发系统设计——注册中心技术选型
    摘要服务注册和发现不是一个新的概念,你在之前的实际项目中也一定了解过,只是你可能没怎么注意罢了。比如说,你知道Nginx是一个反向代理组件,那么Nginx需要知道,应用服务器的地址是什么,这样才能够将流量透传到应用服务器上,这就是服务发现的过程。那么Nginx是怎么实现的呢?它是把应......
  • 高并发系统设计——系统架构的微服务化选型
    摘要现在,你的系统运行稳定,好评不断,每天高峰期的流量,已经达到了10000/s请求,DAU也涨到了几十万。CEO非常高兴,打算继续完善产品功能,以便进行新一轮的运营推广,争取在下个双十一可以将DAU冲击过百万。这时,你开始考虑,怎么通过技术上的优化改造,来支撑更高的并发流量,比如支撑过百万的......
  • 高并发系统设计——RPC框架的技术选型
    摘要服务拆分单独部署后,引入的服务跨网络通信的问题;在拆分成多个小服务之后,服务如何治理的问题。如果想要解决这两方面问题,你需要了解,微服务化所需要的中间件的基本原理,和使用技巧,那么本节课,我会带你掌握,解决第一点问题的核心组件:RPC框架。你的垂直电商系统的QPS已经达到了每秒......
  • 高并发系统设计——数据库技术选型
    摘要我们用池化技术解决了数据库连接复用的问题,这时,你的垂直电商系统虽然整体架构上没有变化,但是和数据库交互的过程有了变化,在你的Web工程和数据库之间增加了数据库连接池,减少了频繁创建连接的成本,从上节课的测试来看性能上可以提升80%。现在的架构图如下所示:此时,你的数据库还......
  • 高并发系统设计——“三高”解决方案
    摘要提到互联网系统设计,你可能听到最多的词儿就是“三高”,也就是“高并发”“高性能”“高可用”,它们是互联网系统架构设计永恒的主题。在前两节课中,我带你了解了高并发系统设计的含义,意义以及分层设计原则,接下来,我想带你整体了解一下高并发系统设计的目标,然后在此基础上,进入我们今......