首页 > 编程语言 >Java-HashMap和ConcurrentHashMap的区别

Java-HashMap和ConcurrentHashMap的区别

时间:2024-06-30 23:30:37浏览次数:28  
标签:Node ConcurrentHashMap Java HashMap tab 链表 哈希 null 节点

Java-HashMap和ConcurrentHashMap的区别


​ 在 Java 8中, HashMap和ConcurrentHashMap都经历了一些重要的改进,使得它们 在性能和线程安全性方面有了 显著的差异

一、关键区别

1.数据结构

  • HashMap (JDK 8):
    1.8之前的
    在这里插入图片描述
    1.8后
    在这里插入图片描述

    数组 + 链表 + 红黑树:Java 8中的HashMap引入了红黑树来优化链表过长的情况。当链表长度超过8时(默认设置),链表会被转换成红黑树,以减少查找时间复杂度,从O(n)降低到O(log n)。这一改变主要目的是提高在哈希冲突较多情况下的性能

  • ConcurrentHashMap (JDK 8):
    1.7中
    在这里插入图片描述
    1.8中
    在这里插入图片描述

    数组 + 链表 + 红黑树:类似于HashMap,ConcurrentHashMap在Java 8中也引入了红黑树来优化性能。但是,ConcurrentHashMap的内部结构更为复杂,它不再使用分段锁(Segment),而是采用CAS(Compare and Swap)操作加上一些其他原子操作和少量的synchronized关键字来实现更细粒度的锁,这大大提升了并发性能

2.线程安全

  • HashMap: 不是线程安全的。在多线程环境下,如果没有外部同步,直接使用HashMap可能会导致数据不一致的问题。
  • ConcurrentHashMap: 是线程安全的。它通过使用CAS算法和synchronized块(只在最小必要时锁定),实现了对部分桶的加锁,而不是像早期版本那样对整个容器加锁,从而在高并发环境下提供了更好的性能

3.性能

  • HashMap: 单线程环境下性能优秀,但在多线程环境下没有提供安全保障,可能导致数据损坏。
  • ConcurrentHashMap: 在多线程环境下性能优越,因为它能更好地控制锁的范围,减少线程之间的竞争,同时在单线程访问时也能保持良好的性能

4.扩容机制

  • HashMap: 在Java 8中,HashMap的扩容仍然是一个相对重量级的操作,虽然它在插入新元素时采用了更高效的尾插法来避免循环链表问题,但扩容时仍需重新分配桶并复制元素
  • ConcurrentHashMap: 其扩容过程更加精细且并发友好,通过多个线程同时参与扩容操作,进一步提高了效率

二、源码简析

1.并发控制机制

HashMap (简单无锁,非线程安全)

// HashMap的get方法非常简单,直接访问指定位置的桶
V get(Object key) {
    Node<K,V> e; // 用于存放找到的节点
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}

// 内部查找节点的方法
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 首先检查第一个节点是否即为目标节点
        if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        // 如果第一个节点不是,则沿着链表或树结构继续查找
        if ((e = first.next) != null) {
            // ...遍历逻辑省略,查找匹配的节点...
        }
    }
    return null;
}

注: HashMap的get操作没有内置的线程安全措施,任何并发修改都可能引起不可预测的行为。它假设在外部进行了同步处理,或在单线程环境下使用。

ConcurrentHashMap (高级并发控制)

    /**
     * 返回与指定键关联的值,如果此映射中不存在该键的映射,则返回{@code null}。
     *
     * @param key 要查询的键
     * @return 与键关联的值,如果没有则为{@code null}
     */
    public V get(Object key) {
        Node<K,V>[] tab; // 哈希桶数组引用
        Node<K,V> e, p; // 当前节点与辅助节点引用
        int n, eh; // 哈希桶大小,当前节点哈希值
        K ek; // 临时存储键引用
        
        // 计算散列值并应用扰动函数
        int h = spread(key.hashCode());
        
        // 检查哈希表是否存在且非空,以及桶内是否有节点
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (e = tabAt(tab, (n - 1) & h)) != null) {
            
            // 检查桶的第一个节点是否匹配
            if ((eh = e.hash) == h) {
                ek = e.key; // 保存键引用以供比较
                if ((ek == key) || (ek != null && key.equals(ek))) // 键相等
                    return e.val; // 返回值
            }
            // 特殊处理:eh < 0 表示可能遇到了ForwardingNode(正在进行resize或其它结构调整)
            else if (eh < 0) 
                return (p = e.find(h, key)) != null ? p.val : null; // 在ForwardingNode中查找键
            
            // 未在首节点找到,遍历链表或树查找
            while ((e = e.next) != null) {
                if (e.hash == h && 
                    ((ek = e.key) == key || (ek != null && key.equals(ek)))) {
                    return e.val; // 找到匹配的键,返回其值
                }
            }
        }
        
        // 未找到匹配项,返回null
        return null;
    }

​ 通过无锁读取提高并发读性能。它首先计算键的哈希值并定位到桶,然后直接访问桶的第一个节点,无需加锁。如果第一个节点匹配,则直接返回其值否则,它会遍历桶内的链表或树结构,查找匹配的节点。这种方法在高并发环境下能够显著提升读取性能,因为读操作不需要等待写锁,减少了线程间的竞争

    /**
     * 将指定的键与值关联到此映射表中。
     * 键和值都不能为null。
     *
     * <p>可以通过使用与原始键相等的键调用{@code get}方法来检索该值。
     *
     * @param key 要与此指定值关联的键
     * @param value 要与指定键关联的值
     * @return 与{@code key}先前关联的值,如果没有映射则为{@code null}
     * @throws NullPointerException 如果指定的键或值为null
     */
    public V put(K key, V value) {
        return putVal(key, value, false);
    }

    /**
     * 实现put和putIfAbsent方法的内部逻辑。
     * 
     * @param key 要插入的键
     * @param value 要插入的值
     * @param onlyIfAbsent 如果为true且键已存在,则不更新值
     * @return 键的旧值,如果没有则为null
     */
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        // 检查键和值是否为null
        if (key == null || value == null) throw new NullPointerException();

        // 计算键的哈希值并应用扰动函数
        int hash = spread(key.hashCode());

        // 初始化重试计数
        int binCount = 0;

        // 主循环处理桶的初始化、迁移、插入等
        for (Node<K,V>[] tab = table;;) {
            Node<K,V> f; // 指向当前桶的头节点
            int n, i, fh; // 分别表示桶的长度、桶的索引、头节点的哈希值

            // 检查表是否未初始化或为空,如果是则进行初始化
            if (tab == null || (n = tab.length) == 0)
                tab = initTable();

            // 计算桶索引并尝试无锁插入到空桶
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                // 使用CAS尝试将新节点放入空桶
                if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))
                    break; // 成功插入后跳出循环
            }

            // 处理正在进行的表迁移
            else if ((fh = f.hash) == MOVED)
                tab = helpTransfer(tab, f);

            // 桶内已有节点,需要加锁处理
            else {
                V oldVal = null;
                synchronized (f) { // 锁定桶头节点或树节点
                    // 再次检查桶状态,防止A-B-A问题
                    if (tabAt(tab, i) == f) {
                        // 处理链表节点
                        if (fh >= 0) {
                            binCount = 1;
                            for (Node<K,V> e = f;; ++binCount) {
                                K ek;
                                // 寻找匹配的键或插入位置
                                if (e.hash == hash &&
                                    ((ek = e.key) == key ||
                                     (ek != null && key.equals(ek)))) {
                                    oldVal = e.val;
                                    if (!onlyIfAbsent)
                                        e.val = value; // 更新值
                                    break;
                                }
                                Node<K,V> pred = e;
                                if ((e = e.next) == null) {
                                    pred.next = new Node<K,V>(hash, key, value, null);
                                    break;
                                }
                            }
                        }
                        // 处理树形节点
                        else if (f instanceof TreeBin) {
                            Node<K,V> p;
                            binCount = 2;
                            // 在树中插入或更新
                            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent)
                                    p.val = value; // 更新值
                            }
                        }
                    }
                }

                // 检查是否需要树化或已经完成插入
                if (binCount != 0) {
                    if (binCount >= TREEIFY_THRESHOLD)
                        treeifyBin(tab, i); // 链表转红黑树
                    if (oldVal != null)
                        return oldVal; // 返回旧值
                    break; // 成功插入或更新后跳出循环
                }
            }
        }

        // 插入后调整大小和其他维护操作
        addCount(1L, binCount);
        return null; // 在某些情况下可能未找到旧值
    }

putVal 方法实现 put 和 putIfAbsent 功能的核心逻辑,它负责在 ConcurrentHashMap 中插入或更新键值对。以下是该方法的主要行为和结论概述:

  • 键值验证:确保传入的键和值都不为 null,违反此规则将抛出 NullPointerException。

  • 哈希与索引计算:通过对键的哈希码应用扰动函数计算得到最终哈希值,并据此确定桶的索引。

  • 表初始化与扩容处理
    若表尚未初始化,通过 initTable 进行初始化。
    若当前桶正在被转移(因为表正在扩容),则帮助完成转移操作。

  • 无锁插入尝试:当目标桶为空时,尝试使用 CAS 操作直接插入新节点,以避免加锁开销。

  • 加锁与冲突处理
    对于非空桶,根据头节点类型(链表或树)加锁处理。
    遍历桶内链表或在树中搜索匹配的键。
    若键已存在,则根据 onlyIfAbsent 参数决定是否更新值。
    若键不存在,则插入新节点至链表尾部或树的适当位置。

  • 树化阈值检查:当桶内节点数量达到 TREEIFY_THRESHOLD 时,将链表转换为红黑树以优化性能。

  • 计数与维护:插入成功后,调用 addCount 方法更新元素数量,并可能触发进一步的扩容判断。

  • 返回结果:若键已存在,则返回旧值;否则,在某些情况下可能返回 null。

2.数据结构转换:链表转红黑树

  • HashMap
    当链表长度达到阈值时,HashMap会尝试将链表转换为红黑树
final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
    // 检查是否需要先扩容
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize();
    else if ((e = tab[index = (n - 1) & hash]) != null) {
        // 将链表转换为红黑树
        TreeNode<K,V> hd = null, tl = null;
        do {
            TreeNode<K,V> p = replacementTreeNode(e, null); // 转换节点类型
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
        // 将红黑树根节点设置回桶中
        if ((tab[index] = hd) != null)
            hd.treeify(tab);
    }
}
  • ConcurrentHashMap
    /**
     * 将给定索引处桶中的所有链表节点转换为树形节点,除非表太小,
     * 在这种情况下会先进行扩容操作。
     */
    private final void treeifyBin(Node<K,V>[] tab, int index) {
        Node<K,V> b; // 指向当前桶的第一个节点
        int n, sc; // 分别表示表的长度和树化过程中记录的节点数量

        // 确保表不为空
        if (tab != null) {
            // 检查表容量是否小于最小树化容量,若小于则先尝试扩容
            if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
                tryPresize(n << 1); // 尝试将表容量加倍

            // 检查桶内有有效节点且不是正在转移的 forwarding node
            else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
                synchronized (b) { // 对桶头节点加锁,保护转换过程
                    // 再次检查桶头是否未改变,防止并发修改
                    if (tabAt(tab, index) == b) {
                        // 初始化树的头节点和尾节点
                        TreeNode<K,V> hd = null, tl = null;
                        // 遍历桶内链表,将每个节点转换为TreeNode
                        for (Node<K,V> e = b; e != null; e = e.next) {
                            TreeNode<K,V> p =
                                new TreeNode<K,V>(e.hash, e.key, e.val, null, null);
                            // 构建TreeNode的双向链表结构
                            if ((p.prev = tl) == null)
                                hd = p; // 设置头节点
                            else
                                tl.next = p;
                            tl = p; // 移动尾节点指针
                        }
                        // 将桶设置为新的TreeBin,完成树化
                        setTabAt(tab, index, new TreeBin<K,V>(hd));
                    }
                }
            }
        }
    }

它负责在ConcurrentHashMap的桶中链表转换为红黑树结构,以提高在哈希冲突较多情况下的查找效率。此方法首先检查表容量是否满足树化的最小要求然后遍历桶内链表将每个节点转换为TreeNode对象,并构建这些树节点的双向链表结构,最后将桶的头节点替换为一个TreeBin实例,完成树化过程。在整个转换过程中,通过加锁保证了操作的线程安全性

static final class TreeBin<K,V> extends Node<K,V>内部类TreeBin

/**
 * 使用以节点 `b` 为首的初始节点集创建一个二叉树节点容器。
 * 此构造方法负责将一系列已排序的节点(通常源自链表)构造成红黑树结构。
 *
 * @param b 初始节点集合的头节点,用于构建红黑树。
 */
TreeBin(TreeNode<K,V> b) {
    // 调用父类构造器进行初始化,设置TREEBIN标记以及其它属性为null。
    super(TREEBIN, null, null, null);
    
    // 保存传入的头节点到first字段。
    this.first = b;
    
    // 初始化红黑树的根节点为null。
    TreeNode<K,V> r = null;
    
    // 遍历链表中的每个节点。
    for (TreeNode<K,V> x = b, next; x != null; x = next) {
        // 将当前节点的下一个节点暂存至next。
        next = (TreeNode<K,V>)x.next;
        
        // 将当前节点的左右子节点清空,准备构建红黑树。
        x.left = x.right = null;
        
        // 如果红黑树根节点尚未设定(首次遍历或新分支):
        if (r == null) {
            // 设定当前节点为根,无父节点,颜色设为黑色。
            x.parent = null;
            x.red = false;
            r = x; // 更新根节点为当前节点。
        } else {
            // 获取当前节点的键和哈希值,准备插入红黑树。
            K k = x.key;
            int h = x.hash;
            
            // 准备比较器类引用。
            Class<?> kc = null;
            
            // 在红黑树中查找当前节点的插入位置。
            for (TreeNode<K,V> p = r;;) {
                int dir, ph;
                K pk = p.key;
                
                // 根据键的哈希值比较确定插入方向。
                if ((ph = p.hash) > h)
                    dir = -1;
                else if (ph < h)
                    dir = 1;
                else { // 哈希值相同时,根据键的自然顺序或比较器决定。
                    if (kc == null && (kc = comparableClassFor(k)) == null)
                        // 键不可比较,则使用tie-break规则。
                        dir = tieBreakOrder(k, pk);
                    else
                        // 可比较,则直接比较结果作为方向。
                        dir = compareComparables(kc, k, pk);
                }
                
                // 记录当前父节点。
                TreeNode<K,V> xp = p;
                
                // 按照dir方向移动至下一个节点,若为空则插入当前节点。
                if ((p = (dir <= 0) ? p.left : p.right) == null) {
                    x.parent = xp;
                    if (dir <= 0)
                        xp.left = x;
                    else
                        xp.right = x;
                    
                    // 插入后平衡红黑树。
                    r = balanceInsertion(r, x);
                    break;
                }
            }
        }
    }
    
    // 设置构造完成的红黑树的根节点。
    this.root = r;
    
    // 断言检查红黑树的不变性条件是否满足。
    assert checkInvariants(root);
}

  • 接收一个头节点b遍历以其为首的节点集合,将这些节点逐个插入到一个新的红黑树结构中。过程中,代码不仅重新组织了节点间的链接关系(父母、左右子节点),还通过平衡插节点是黑色;任意节点到其每个叶子节点的所有路径上包含相同数量的黑色节点;且对于每个红色节点,其两个子节点都是黑色的)。通过这种方式,该构造函数保证了转换后的红黑树维持了良好的搜索性能特性,即最坏情况下的时间复杂度为O(log n)。
  • 遍历链表的过程中,代码首先清空每个节点的左右子节点信息,这是因为这些节点之前作为链表的一部分,没有树结构的概念。然后,通过比较节点的哈希值及键值(如果哈希值相同)来确定新节点在树中的插入位置,这一过程体现了红黑树的排序特性。当遇到相等哈希值的情况时,代码还会尝试利用键的自然顺序或者自定义比较器来进一步区分,确保键的唯一性和有序性。
  • 特别地,代码中还包括了一个平衡调整的过程,通过balanceInsertion方法在插入新节点后对树进行必要的旋转和重新着色操作,以维护红黑树的平衡状态。这是确保树操作效率的关键步骤,避免了因连续插入导致树形态退化成链式结构的可能性。
  • 最后,通过断言assert checkInvariants(root);来验证构建完成的红黑树是否满足红黑树的基本不变量,这是一种调试辅助手段,用于在开发和测试阶段捕捉可能的逻辑错误,确保数据结构的正确性。在生产环境中,断言的启用与否通常取决于JVM的启动参数配置。

3.扩容机制

触发hashMap和concurentHashMap扩容机制的条件

HashMap 扩容条件

  • 加载因子(Load Factor):HashMap 默认的加载因子为 0.75。这意味着当 HashMap 中的元素数量达到其容量的 75% 时,HashMap 会自动进行扩容操作。这是为了防止哈希冲突过于频繁,影响性能。
  • 容量(Capacity):扩容时,HashMap 会创建一个新的更大的数组,并将原有数组中的元素重新分配到新数组中。扩容后的容量通常是原容量的两倍(例如,从 16 扩展到 32)。

ConcurrentHashMap 扩容条件

  • 段(Segment)或桶(Bucket)级别扩容:在 Java 8 之前的版本中,ConcurrentHashMap 是由多个 Segment 组成的分段锁结构。每个 Segment 相当于一个小的 HashMap,有各自的扩容机制当某个 Segment 中的元素数量达到其阈值时,会单独对该 Segment 进行扩容。而在 Java 8 及以后版本中,虽然去除了 Segment,但扩容逻辑类似,关注的是桶(Bucket)级别的增长
  • 全局容量与负载:整体上,ConcurrentHashMap 也会监控其全局的元素数量与容量的比例,当总体元素数量达到全局阈值时,会触发整体的扩容操作。默认的加载因子也是 0.75,意味着当表中的元素数量达到总容量的 75% 时,会进行扩容
  • 并发控制:ConcurrentHashMap 在扩容时采用了细粒度的锁机制,确保扩容操作能与读写操作并发执行,减少阻塞。扩容时,不是一次性复制所有桶,而是逐步将桶从旧数组迁移到新数组,这个过程中仍然允许其他线程的读写操作

总的来说,HashMap 和 ConcurrentHashMap 都是在元素数量达到一定比例(默认为 75%)时触发扩容,但 ConcurrentHashMap 通过更精细的并发控制机制,在扩容的同时能保持较高的并发性能

HashMap

/**
     * 初始化或加倍哈希表容量。如果原表为空,则按照阈值字段保存的初始容量目标分配空间。
     * 否则,由于采用2的幂次扩展方式,来自每个桶的元素必须保持索引不变,
     * 或者在新表中以2的幂次偏移量移动。
     *
     * @return 新的哈希表数组
     */
    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table; // 保存旧的哈希表引用
        int oldCap = (oldTab == null) ? 0 : oldTab.length; // 获取旧容量
        int oldThr = threshold; // 保存旧的扩容阈值
        
        int newCap, newThr = 0; // 初始化新容量和新阈值
        
        // 如果旧容量大于0
        if (oldCap > 0) {
            // 如果旧容量已达到最大,设置阈值为最大整数并返回原表
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // 否则,如果可以扩大两倍且旧容量至少为默认初始容量,则翻倍容量和阈值
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 阈值也翻倍
        }
        // 如果旧阈值大于0,说明初始容量被放在了阈值字段里
        else if (oldThr > 0) 
            newCap = oldThr;
        // 如果旧阈值为0,使用默认初始容量和加载因子计算新容量和新阈值
        else {               
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        
        // 如果新阈值未设置(仍为0),根据新容量和加载因子计算新阈值
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        
        // 设置新的扩容阈值
        threshold = newThr;
        
        // 创建新容量大小的新哈希表数组
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        
        // 将新表赋值给table引用
        table = newTab;
        
        // 如果旧表不为空,开始转移数据
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e; // 当前桶的头节点
                
                // 遍历桶中的节点
                if ((e = oldTab[j]) != null) {
                    // 清除旧桶引用,准备重用节点
                    oldTab[j] = null;
                    
                    // 单个节点直接迁移
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    
                    // 如果是树节点,则执行特殊分裂操作
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    
                    // 对于链表节点,维持顺序并重新分配到新桶
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null; // 低位链表头尾指针
                        Node<K,V> hiHead = null, hiTail = null; // 高位链表头尾指针
                        
                        Node<K,V> next;
                        do {
                            next = e.next;
                            
                            // 根据hash值确定节点应分配到新表的哪个部分
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        
                        // 将处理好的链表分别放入新表对应位置
						if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;	 // 高位链表应放置在原索引加上旧容量的位置
                        }
                    }
                }
            }
        }
        return newTab;	// 返回扩容后的新哈希表
    }

ConcurrentHashMap

触发扩容的检查
addCount方法中,有一个环节用于检查是否需要扩容

private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    if (check <= 1) {
        // 省略其他逻辑...
    }
    else if (as = counterCells != null ||
             !U.compareAndSwapLong(this, BASECOUNT, v = baseCount, s = v + x)) {
        // 省略其他逻辑...
    }
    // 检查是否需要扩容
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        while ((tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY &&
               (sc = sizeCtl) >= 0) {
            if (sc < n << RESIZE_STAMP_SHIFT) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != resizeStamp(n) || sc == resizeStamp(n) + 1 ||
                    sc == resizeStamp(n) + MAX_RESIZERS || transferIndex <= 0)
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, null);
            }
            // 其他情况省略...
        }
    }
}
/**
 * 负责在扩容时将原哈希表中的节点重新分配到新的、更大的哈希表中。
 * 实现并发安全的节点迁移,以支持HashMap在使用过程中的动态扩容。
 *
 * @param tab 当前正在使用的哈希表数组
 * @param nextTab 新的、扩容后的哈希表数组
 */
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length; // 获取当前哈希表的长度
    int stride; // 每个线程处理的步长,用于并发转移
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
        stride = MIN_TRANSFER_STRIDE; // 如果计算出的步长太小,则设置最小步长

    // 初始化新哈希表,如果尚未初始化
    if (nextTab == null) {
        try {
            @SuppressWarnings("unchecked")
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1]; // 新哈希表长度为原长度的两倍
            nextTab = nt;
        } catch (Throwable ex) { // 处理可能出现的内存不足异常
            sizeCtl = Integer.MAX_VALUE;
            return;
        }
        nextTable = nextTab; // 设置新表引用
        transferIndex = n; // 初始化转移索引
    }

    int nextn = nextTab.length; // 新哈希表的长度
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab); // 前向节点,用于临时替代已转移的桶

    boolean advance = true; // 控制是否继续转移下一个桶
    boolean finishing = false; // 标记是否所有桶都至少被尝试过一次转移

    // 主循环,负责桶的遍历和转移
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        // 决定是否进入下一个桶的转移
        while (advance) {
            int nextIndex, nextBound;
            // 检查是否到达边界或完成标志
            if (--i >= bound || finishing)
                advance = false;
            else if ((nextIndex = transferIndex) <= 0) {
                i = -1;
                advance = false; // 所有桶已完成首次尝试
            } else if (U.compareAndSwapInt
                       (this, TRANSFERINDEX, nextIndex,
                        nextBound = (nextIndex > stride ?
                                     nextIndex - stride : 0))) {
                bound = nextBound;
                i = nextIndex - 1;
                advance = false; // 更新转移范围并准备处理下一个桶
            }
        }

        // 检查是否结束循环
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            if (finishing) { // 如果完成阶段,提交新表并更新控制状态
                nextTable = null;
                table = nextTab;
                sizeCtl = (n << 1) - (n >>> 1);
                return;
            }
            // 准备进入完成阶段,减少sizeCtl并重置i
            if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                    return;
                finishing = advance = true;
                i = n; // 重新检查所有桶
            }
        } else { // 处理当前桶
            if ((f = tabAt(tab, i)) == null)
                advance = casTabAt(tab, i, null, fwd); // 置空桶并标记为已转移
            else if ((fh = f.hash) == MOVED)
                advance = true; // 已经被其他线程转移
            else { // 正常桶的转移处理
                synchronized (f) { // 锁住桶头节点,防止并发修改
                    if (tabAt(tab, i) == f) { // 确保桶未被其他线程改变
                        Node<K,V> ln, hn; // 用于存储低位和高位链表
                        if (fh >= 0) { // 处理链表桶
							// 初始化runBit为当前桶头节点的哈希值与原哈希表长度-1的按位与结果
                            int runBit = fh & n;
                            // 初始化lastRun为当前桶的第一个节点,即f自身
                            Node<K,V> lastRun = f;

                            // 遍历当前桶中的链表
                            for (Node<K,V> p = f.next; p != null; p = p.next) {
                                // 计算当前节点p的哈希值与原哈希表长度-1的按位与结果
                                int b = p.hash & n;

                                // 检查当前节点的runBit是否与之前的不同
                                if (b != runBit) {
                                    // 如果不同,说明遇到了需要划分到不同桶的节点
                                    // 更新runBit为当前节点的b值,并记录下这个作为新runBit的第一个节点lastRun
                                    runBit = b;
                                    lastRun = p;
                                }
                            }

                            // 根据最后的runBit决定高低位链表的分配
                            // 如果runBit为0,说明从f到lastRun这一段应该分配到新表的低位桶(索引不变)
                            if (runBit == 0) {
                                ln = lastRun; // ln链表指向lastRun,包含从f到lastRun的节点
                                hn = null;    // hn链表为空,因为所有处理的节点都属于低位
                            }
                            // 否则,runBit不为0,这一段应该分配到新表的高位桶(索引加上原表长度)
                            else {
                                hn = lastRun; // hn链表指向lastRun,包含从f到lastRun的节点
                                ln = null;    // ln链表为空,因为所有处理的节点都属于高位
                            }

                            // 遍历当前桶中的链表,根据节点的hash值分配到ln(低位链表)或hn(高位链表)
                            for (Node<K,V> p = f; p != null; p = p.next) {
                                int ph = p.hash;
                                K pk = p.key;
                                V pv = p.val;
                                Node<K,V> newNode = new Node<>(ph, pk, pv, null);
                                if ((ph & n) == 0) {
                                    if (ln == null)
                                        ln = newNode;
                                    else
                                        ln.next = newNode;
                                } else {
                                    if (hn == null)
                                        hn = newNode;
                                    else
                                        hn.next = newNode;
                                }
                            }
                            
                            // 将拆分后的链表放入新哈希表的对应位置
                            setTabAt(nextTab, i, ln); // 低位链表放回原索引
                            setTabAt(nextTab, i + n, hn); // 高位链表放在新索引
                            setTabAt(tab, i, fwd); // 标记原索引桶已处理
                            advance = true; // 标记可以处理下一个桶
                        } else if (f instanceof TreeBin) { // 树节点桶的处理
                            // 树节点的拆分逻辑
                            TreeBin<K,V> t = (TreeBin<K,V>)f;
                            TreeNode<K,V> lo = null, loTail = null;
                            TreeNode<K,V> hi = null, hiTail = null;
                            int lc = 0, hc = 0;

                            // 遍历树节点,根据hash值分配到lo(低位树)或hi(高位树)
                            for (Node<K,V> e = t.first; e != null; e = e.next) {
                                TreeNode<K,V> p = new TreeNode<>(e.hash, e.key, e.val, null, null);
                                if ((p.hash & n) == 0) {
                                    if (loTail == null)
                                        lo = p;
                                    else
                                        loTail.next = p;
                                    loTail = p;
                                    lc++;
                                } else {
                                    if (hiTail == null)
                                        hi = p;
                                    else
                                        hiTail.next = p;
                                    hiTail = p;
                                    hc++;
                                }
                            }

                            // 根据拆分结果构建新树或链表
                            ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) : (hc != 0) ? new TreeBin<>(lo) : t;
                            hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) : (lc != 0) ? new TreeBin<>(hi) : t;

                            // 将处理后的树或链表放入新哈希表
                            setTabAt(nextTab, i, ln);
                            setTabAt(nextTab, i + n, hn);
                            setTabAt(tab, i, fwd);

                            advance = true; // 标记可以处理下一个桶
                        }
                    }
                } // synchronized 结束
            } // if (fh >= 0) 或 (f instanceof TreeBin) 结束
        } // else (桶非空且未转移) 结束
    } // 主循环结束
} // transfer 方法结束

transfer方法是Java ConcurrentHashMap类中的核心方法之一,其主要职责是在哈希表扩容时,将原哈希表中的所有节点(包括链表节点和树节点)高效且安全地迁移到一个新的、容量更大的哈希表中。以下是该方法的关键点总结:

1)并发转移: 利用多线程并发执行,每个处理器负责哈希表的一部分桶进行迁移,提高了扩容效率,同时确保操作的线程安全性。
2)步长计算: 动态计算每个线程的处理步长(stride),平衡并发度与竞争,特别是在CPU核心数较多时,合理分配每个线程的工作量。
3)新表初始化: 在第一次调用时,会创建一个两倍于原表大小的新哈希表,并处理可能的OutOfMemoryError异常。
4)桶的遍历与转移:

  • 使用transferIndex和bound来控制遍历范围,逐步推进,确保所有桶都被处理。
  • 对于空桶,直接设置转发节点。
  • 对于已标记为“MOVED”的桶,跳过处理(已被其他线程处理)。
  • 对于链表桶,根据节点的哈希值将其分割为两个链表,分别放置在新表的原索引和原索引+n的位置。
  • 对于树形桶(当链表长度超过阈值时转换而成),同样进行拆分处理,可能重新调整为链表或新的树形结构。

5)控制转移流程:

  • 使用finishing标志来确保所有桶至少被检查过一次,之后进入最终的整理阶段,提交新表并更新控制状态。
  • 通过CAS操作保证操作的原子性和一致性,减少线程间的直接竞争。

6)桶内同步: 在处理非空桶时,通过同步块锁定桶头节点,确保同一时间只有一个线程能操作该桶,保证了在并发环境下的数据一致性。
7)树形节点的处理: 特别处理了树形桶的拆分,将树拆分为两个部分,可能重新转换为链表或新的树结构,确保数据结构的优化。

总之,transfer方法通过精细的并发控制和数据结构操作,实现了高效且线程安全的哈希表扩容过程,是ConcurrentHashMap高并发性能的关键实现之一。

三、putIfAbsent方法computeIfAbsent方法区别

场景代码

    public static void main(String[] args) {
        test(new HashMap<>());
        test(new ConcurrentHashMap<>());
    }

    private static void test(Map<String, String> map) {
        log.info("class : {}", map.getClass().getName());
        try {
            log.info("putIfAbsent test1 null value : {}", map.putIfAbsent("test1", null));
        } catch (Exception ex) {
            ex.printStackTrace();
        }
        log.info("test containsKey test1 after putIfAbsent : {}", map.containsKey("test1"));
        log.info("computeIfAbsent test2 null value : {}", map.computeIfAbsent("test2", k -> "20"));
        log.info("test containsKey test2 after computeIfAbsent : {}", map.containsKey("test2"));
        log.info("putIfAbsent test3 non-null value : {}", map.putIfAbsent("test3", "test3"));
        log.info("computeIfAbsent test4 non-null value : {}", map.computeIfAbsent("test4", k -> "test4"));
        log.info("putIfAbsent test4 expensive value : {}", map.putIfAbsent("test4", getValue()));
        log.info("computeIfAbsent test4 expensive value : {}", map.computeIfAbsent("test4", k -> getValue()));

    }

    private static String getValue() {
        try {
            TimeUnit.SECONDS.sleep(1);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        return UUID.randomUUID().toString();
    }

传入HashMap结果

在这里插入图片描述

传入ConcurrentHashMap结果:

在这里插入图片描述

结论:

前提:HashMap只可以有一个K=null,V随意;ConcurrentHashMap的K-V 都!=null

  • putIfAbsent:当K-V不存在,将待插入的K-V插入,返回null;当K-V存在,返回当前K-V的值,有函数也不更新;
  • computeIfAbsent:当K-V不存在,将对应K的计算结果插入(但是当V=null,则不插入K-null);当K-V存在,返回原映射中的值;

看完笔者这篇文章余兴不足,还可以看看别人的

HashMap和ConcurrentHashMap的区别,详解HashMap和ConcurrentHashMap数据结构

HashMap和ConcurrentHashMap

HashMap和ConcurrentHashMap详细笔记

标签:Node,ConcurrentHashMap,Java,HashMap,tab,链表,哈希,null,节点
From: https://blog.csdn.net/kdzandlbj/article/details/139963483

相关文章

  • Java方法递归:File文件搜索
        在Java中,方法递归是一种特殊的情况,其中方法直接或间接地调用自身。为了使用方法递归,方法需要有基本情况,即不再调用自身的条件,以防止进入无限循环。    我们来做一个搜索文件并打开的案例。以打开QQ为例,因为我的电脑只有C盘,我搜索文件的地方,就写C盘。publ......
  • Java集成框架
    Java集成框架(JavaIntegrationFramework)涵盖了许多库和工具,帮助开发者实现各种功能。这些框架包括Spring、ApacheCamel、JavaEE等。1.SpringFrameworkSpring是一个广泛使用的企业级应用程序框架,提供全面的基础设施支持,包括依赖注入、面向切面编程、事务管理等教程......
  • 494.力扣每日一题6/30 Java(三种解法)
    博客主页:音符犹如代码系列专栏:算法练习关注博主,后期持续更新系列文章如果有错误感谢请大家批评指出,及时修改感谢大家点赞......
  • “Java编程学习路线图:从新手到专家的全面指南“
    学习Java编程语言是一个系统化的过程,涉及多个阶段和技能点。下面是一个推荐的Java学习路线,包括一些关键的里程碑和相应的表情符号来表达学习过程中的情感体验。1.基础入门......
  • Java毕业设计-高校学生课堂考勤打卡系统 Vue前后端分离
    传统信息的管理大部分依赖于管理人员的手工登记与管理,然而,随着近些年信息技术的迅猛发展,让许多比较老套的信息管理模式进行了更新迭代,班级信息因为其管理内容繁杂,管理数量繁多导致手工进行处理不能满足广大用户的需求,因此就应运而生出相应的高校学生课堂考勤系统。......
  • Java毕业设计-马场养马马病管理系统
    传统信息的管理大部分依赖于管理人员的手工登记与管理,然而,随着近些年信息技术的迅猛发展,让许多比较老套的信息管理模式进行了更新迭代,马病信息因为其管理内容繁杂,管理数量繁多导致手工进行处理不能满足广大用户的需求,因此就应运而生出相应的马病管理系统。本马病管......
  • 基于java web模拟数据生成器的设计与实现
    选题的背景: 随着网络和计算机技术的飞速发展,软件开发,软件测试等IT行业在蓬勃发展,而往往开发这些软件等需要涉及到特别庞大的工作量,为了方便开发与测试人员进行系统的功能等测试,因此,我们的数据生成器系统由此诞生。软件开发与测试从之前的由程序员一个代码一个代码的敲,一个一......
  • 【JavaScript脚本宇宙】打造完美用户体验:必备JS图形库指南
    探索顶尖JavaScript图形库:从jsPlumb到mxGraph前言在现代的Web开发中,交互式图形和数据可视化库成为了不可或缺的工具。这些库不仅提供了丰富的功能,还大大简化了开发人员的工作流程。本文将介绍和比较六个流行的JavaScript图形和数据可视化库:jsPlumb、GoJS、draw2d、Cytosca......
  • 【JavaScript脚本宇宙】加速您的网站:图像优化工具和库的终极指南
    别让大图拖垮你的应用:如何正确优化图像前言在数字时代,图像是我们日常生活中不可或缺的一部分。然而,随着图像数量的增加和分辨率的提高,它们也占据了越来越多的存储空间和带宽。为了解决这个问题,开发人员可以使用各种图像优化工具和技术来减小图像文件的大小,同时保持其质量......
  • 【JavaScript脚本宇宙】精通前端开发:六大热门CSS框架详解
    前端开发的利器:深入了解六大CSS框架前言在现代Web开发中,选择适合的前端框架和工具包是构建高效、响应式和美观的网站或应用程序的关键。本文将详细介绍六个广受欢迎的CSS框架:Bootstrap、Bulma、TailwindCSS、Foundation、Materialize和SemanticUI。每个框架都有其独特的......