ConcurrentHashMap 的初步使用及场景:
ConcurrentHashMap 是 J.U.C 包里面提供的一个线程安全并且高效的 HashMap,所以ConcurrentHashMap 在并发编程的场景中使用的频率比较高,那么我们就从ConcurrentHashMap 的使用上以及源码层面来分析 ConcurrentHashMap 到底是如何实现安全性的
api 使用:
ConcurrentHashMap 是 Map 的派生类,所以 api 基本和 Hashmap 是类似,主要就是 put、get 这些方法,接下来基于 ConcurrentHashMap 的 put 和 get 这两个方法作为切入点来分析 ConcurrentHashMap 的源码实现。
ConcurrentHashMap 和 HashMap 的实现原理是差不多的,但是因为 ConcurrentHashMap需要支持并发操作,所以在实现上要比 hashmap 稍微复杂一些。在 JDK1.7 的实现上, ConrruentHashMap 由一个个 Segment 组成,简单来说,ConcurrentHashMap 是一个 Segment 数组,它通过继承 ReentrantLock 来进行加锁,通过每次锁住一个 segment来保证每个 segment内的操作的线程安全性从而实现全局线程安全。整个结构图如下:
当每个操作分布在不同的 segment 上的时候,默认情况下,理论上可以同时支持 16 个线程的并发写入。相比于 1.7 版本,它做了两个改进
取消了 segment 分段设计,直接使用 Node 数组来保存数据,并且采用 Node 数组元素作为锁来实现每一行数据进行加锁来进一步减少并发冲突的概率将原本数组+单向链表的数据结构变更为了数组+单向链表+红黑树的结构。为什么要引入红黑树呢?在正常情况下,key hash 之后如果能够很均匀的分散在数组中,那么 table 数组中的每个队列的长度主要为 0 或者 1.但是实际情况下,还是会存在一些队列长度过长的情况。如果还采用单向列表方式,那么查询某个节点的时间复杂度就变为 O(n); 因此对于队列长度超过 8 的列表,JDK1.8 采用了红黑树的结构,那么查询的时间复杂度就会降低到O(logN),可以提升查找的性能;
这个结构和 JDK1.8 版本中的 Hashmap 的实现结构基本一致,但是为了保证线程安全性,ConcurrentHashMap 的实现会稍微复杂一下。接下来我们从源码层面来了解一下它的原理.我们基于 put 和 get 方法来分析它的实现即可。
put 方法第一阶段:
public V put(K key, V value) { return putVal(key, value, false); } /** Implementation for put and putIfAbsent */ final V putVal(K key, V value, boolean onlyIfAbsent) { if (key == null || value == null) throw new NullPointerException(); int hash = spread(key.hashCode());//计算 hash 值 int binCount = 0;//用来记录链表的长度 for (Node[] tab = table;;) {//这里其实就是自旋操作,当出现线程竞争时不断自旋 Node f; int n, i, fh; if (tab == null || (n = tab.length) == 0)//如果数组为空,则进行数组初始 化 tab = initTable();//初始化数组 //通过 hash 值对应的数组下标得到第一个节点; 以 volatile 读的方式来读取 table 数 //组中的元素,保证每次拿到的数据都是最新的 //(Node )U.getObjectVolatile(tab, ((long)i < (hash, key, value, null))) break; // no lock when adding to empty bin } } ....... }
假如在上面这段代码中存在两个线程,在不加锁的情况下:线程 A 成功执行 casTabAt 操作后,随后的线程 B 可以通过 tabAt 方法立刻看到 table[i]的改变。原因如下:线程 A 的casTabAt 操作,具有 volatile 读写相同的内存语义,根据 volatile 的 happens-before 规则:线程 A 的 casTabAt 操作,一定对线程 B 的 tabAt 操作可见。
initTable():
数组初始化方法,这个方法比较简单,就是初始化一个合适大小的数组sizeCtl 这个要单独说一下,如果没搞懂这个属性的意义,可能会被搞晕这个标志是在 Node 数组初始化或者扩容的时候的一个控制位标识,负数代表正在进行初始化或者扩容操作
private final Node[] initTable() { Node [] tab; int sc; while ((tab = table) == null || tab.length == 0) { if ((sc = sizeCtl) <0)//被其他线程抢占了初始化的操作,则直接让出自己的 CPU 时间片 Thread.yield(); // lost initialization race; just spin //通过 cas 操作,将 sizeCtl 替换为-1,标识当前线程抢占到了初始化资格 //第一次进来初始化一定走这里 else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { try { if ((tab = table) == null || tab.length == 0) { //默认初始容量为 16 int n = (sc > 0) &#63; sc : DEFAULT_CAPACITY; @SuppressWarnings("unchecked") //初始化数组,长度为 16,或者初始化在构造 ConcurrentHashMap 的时候传入的长度 Node [] nt = (Node [])new Node<&#63;,&#63;>[n]; table = tab = nt;//将这个数组赋值给 table //计算下次扩容的大小,实际就是当前容量的 0.75倍,这里使用了右移来计算 //sc =12 sc = n - (n >>> 2); } } finally { //设置 sizeCtl 为 sc, 如果默认是 16 的话,那么这个时候sc=16*0.75=12 sizeCtl = sc; } break; } } return tab; }
tabAt():
该方法获取对象中offset偏移地址对应的对象field的值。实际上这段代码的含义等价于tab[i],但是为什么不直接使用 tab[i]来计算呢?getObjectVolatile,一旦看到 volatile 关键字,就表示可见性。因为对 volatile 写操作 happen-before 于 volatile 读操作,因此其他线程对 table 的修改均对 get 读取可见;虽然 table 数组本身是增加了 volatile 属性,但是“volatile 的数组只针对数组的引用具有volatile 的语义,而不是它的元素”。 所以如果有其他线程对这个数组的元素进行写操作,那么当前线程来读的时候不一定能读到最新的值。出于性能考虑,Doug Lea 直接通过 Unsafe 类来对 table 进行操作。
static finalNode tabAt(Node [] tab, int i) { return (Node )U.getObjectVolatile(tab, ((long)i <
put 方法第二阶段
在putVal方法执行完成以后,会通过addCount来增加ConcurrentHashMap中的元素个数,并且还会可能触发扩容操作。这里会有两个非常经典的设计
........ //将当前 ConcurrentHashMap 的元素数量加 1,有可能触发 transfer 操作(扩容) addCount(1L, binCount); return null; }
addCount():
在 putVal 最后调用 addCount 的时候,传递了两个参数,分别是 1 和 binCount(链表长度),看看 addCount 方法里面做了什么操作。x 表示这次需要在表中增加的元素个数,check 参数表示是否需要进行扩容检查,大于等于 0都需要进行检查
private final void addCount(long x, int check) { CounterCell[] as; long b, s; // 判断 counterCells 是否为空, // 1. 如果为空,就通过 cas 操作尝试修改 baseCount 变量,对这个变量进行原子累加操 // 作(做这个操作的意义是:如果在没有竞争的情况下,仍然采用 baseCount 来记录元素个 数) // 2. 如果 cas 失败说明存在竞争,这个时候不能再采用 baseCount 来累加,而是通过 CounterCell 来记录 if ((as = counterCells) != null || !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) { CounterCell a; long v; int m; boolean uncOntended= true;//是否冲突标识,默认为没有冲突 // 这里有几个判断 // 1. 计数表为空则直接调用 fullAddCount // 2. 从计数表中随机取出一个数组的位置为空,直接调用 fullAddCount // 3. 通过 CAS 修改 CounterCell 随机位置的值,如果修改失败说明出现并发情况(这里又 // 用到了一种巧妙的方法),调用 fullAndCount // Random 在线程并发的时候会有性能问题以及可能会产生相同的随机 // 数 ,ThreadLocalRandom.getProbe 可以解决这个问题,并且性能要比 Random 高 if (as == null || (m = as.length - 1) <0 || (a = as[ThreadLocalRandom.getProbe() & m]) == null || !(uncOntended= U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) { fullAddCount(x, uncontended);//执行 fullAddCount 方法 return; } if (check <= 1)//链表长度小于等于 1,不需要考虑扩容 return; s = sumCount();//统计 ConcurrentHashMap 元素个数 } ....... }
CounterCells 解释:
ConcurrentHashMap 是采用 CounterCell 数组来记录元素个数的,像一般的集合记录集合大小,直接定义一个 size 的成员变量即可,当出现改变的时候只要更新这个变量就行。为什么ConcurrentHashMap 要用这种形式来处理呢?问题还是处在并发上,ConcurrentHashMap 是并发集合,如果用一个成员变量来统计元素个数的话,为了保证并发情况下共享变量的的安全性,势必会需要通过加锁或者自旋来实现,如果竞争比较激烈的情况下,size 的设置上会出现比较大的冲突反而影响了性能,所以在ConcurrentHashMap 采用了分片的方法来记录大小,具体什么意思,我们来分析下
private transient volatile int cellsBusy;// 标识当前 cell 数组是否在初始化或扩容中的CAS 标志位 /** * Table of counter cells. When non-null, size is a power of 2. */ private transient volatile CounterCell[] counterCells;// counterCells 数组,总数值的分值分别存在每个 cell 中 @sun.misc.Contended static final class CounterCell { volatile long value; CounterCell(long x) { value = x; } } //看到这段代码就能够明白了,CounterCell 数组的每个元素,都存储一个元素个数,而实际我们调用size 方法就是通过这个循环累加来得到的 //又是一个设计精华,大家可以借鉴; 有了这个前提,再会过去看 addCount 这个方法,就容易理解一些了 final long sumCount() { CounterCell[] as = counterCells; CounterCell a; long sum = baseCount; if (as != null) { for (int i = 0; i
fullAddCount():
fullAddCount 主要是用来初始化 CounterCell,来记录元素个数,里面包含扩容,初始化等操作
private final void fullAddCount(long x, boolean wasUncontended) { int h; //获取当前线程的 probe 的值,如果值为 0,则初始化当前线程的 probe 的值,probe 就是随机数 if ((h = ThreadLocalRandom.getProbe()) == 0) { ThreadLocalRandom.localInit(); // force initialization h = ThreadLocalRandom.getProbe(); wasUncOntended= true; // 由于重新生成了 probe,未冲突标志位设置为 true } boolean collide = false; // True if last slot nonempty for (;;) {//自旋 CounterCell[] as; CounterCell a; int n; long v; //说明 counterCells 已经被初始化过了,我们先跳过这个代码,先看初始化部分 if ((as = counterCells) != null && (n = as.length) > 0) { // 通过该值与当前线程 probe 求与,获得cells 的下标元素,和 hash 表获取索引是一样的 if ((a = as[(n - 1) & h]) == null) { //cellsBusy=0 表示 counterCells 不在初始化或者扩容状态下 if (cellsBusy == 0) {// Try to attach new Cell //构造一个 CounterCell 的值,传入元素个数 CounterCell r = new CounterCell(x); // Optimistic create //通过 cas 设置 cellsBusy 标识,防止其他线程来对 counterCells 并发处理 if (cellsBusy == 0 && U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) { boolean created = false; try { // Recheck under lock CounterCell[] rs; int m, j; //将初始化的 r 对象的元素个数放在对应下标的位置 if ((rs = counterCells) != null && (m = rs.length) > 0 && rs[j = (m - 1) & h] == null) { rs[j] = r; created = true; } } finally {//恢复标志位 cellsBusy = 0; } if (created)//创建成功,退出循环 break; //说明指定 cells 下标位置的数据不为空,则进行下一次循环 continue; // Slot is now non-empty } } collide = false; } //说明在 addCount 方法中 cas 失败了,并且获取 probe 的值不为空 else if (!wasUncontended) // CAS already known to fail // 设置为未冲突标识,进入下一次自旋 wasUncOntended= true; // Continue after rehash // 由于指定下标位置的 cell 值不为空,则直接通过 cas 进行原子累加,如果成功,则直接退出 else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x)) break; // 如果已经有其他线程建立了新的 counterCells // 或者 CounterCells 大于 CPU 核心数(很巧妙,线程的并发数不会超过 cpu 核心数) else if (counterCells != as || n >= NCPU) //设置当前线程的循环失败不进行扩容 collide = false; // At max size or stale else if (!collide)//恢复 collide 状态,标识下次循环会进行扩容 collide = true; //进入这个步骤,说明 CounterCell 数组容量不够,线程竞争较大,所以先设置一个标识表示为正在扩容 else if (cellsBusy == 0 && U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) { try { if (counterCells == as) {// Expand table unless stale // 扩容一倍 2 变成 4 ,这个扩容比较简单 CounterCell[] rs = new CounterCell[n <<1]; for (int i = 0; i
CounterCells 初始化图解
初始化长度为 2 的数组,然后随机得到指定的一个数组下标,将需要新增的值加入到对应下标位置处
transfer() 扩容阶段:
回到addCount(long x, int check)。判断是否需要扩容,也就是当更新后的键值对总数 baseCount >= 阈值 sizeCtl 时,进行rehash,这里面会有两个逻辑。
private final void addCount(long x, int check) { ........if (check >= 0) {//如果 binCount>=0,标识需要检查扩容 Node[] tab, nt; int n, sc; //s 标识集合大小,如果集合大小大于或等于扩容阈值(默认值的 0.75) //并且 table 不为空并且 table 的长度小于最大容量 while (s >= (long)(sc = sizeCtl) && (tab = table) != null && (n = tab.length) >> RESIZE_STAMP_SHIFT!=rs 表示比较高 RESIZE_STAMP_BITS 位生成戳和 rs 是否相等,相同 // sc=rs+1 表示扩容结束 // sc==rs+MAX_RESIZERS 表示帮助线程线程已经达到最大值了 // nt=nextTable -> 表示扩容已经结束 // transferIndex<=0 表示所有的 transfer 任务都被领取完了, // 没有剩余的hash 桶来给自己自己好这个线程来做 transfer if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 || sc == rs + MAX_RESIZERS || (nt = nextTable) == null || transferIndex <= 0) break; //当前线程尝试帮助此次扩容,如果成功,则调用 transfer if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) transfer(tab, nt); } // 如果当前没有在扩容,那么 rs 肯定是一个正数, // 通过 rs<
resizeStamp:
这块逻辑要理解起来,也有一点复杂。resizeStamp 用来生成一个和扩容有关的扩容戳,具体有什么作用呢?我们基于它的实现来做一个分析
static final int resizeStamp(int n) { return Integer.numberOfLeadingZeros(n) | (1 <<(RESIZE_STAMP_BITS - 1)); }
Integer.numberOfLeadingZeros 这个方法是返回无符号整数 n 最高位非 0 位前面的 0 的个数,比如 10 的二进制是 0000 0000 0000 0000 0000 0000 0000 1010,那么这个方法返回的值就是 28
根据 resizeStamp 的运算逻辑,我们来推演一下,假如 n=16,那么 resizeStamp(16)=32796。转化为二进制是[0000 0000 0000 0000 1000 0000 0001 1100]
接着再来看,当第一个线程尝试进行扩容的时候,会执行下面这段代码:U.compareAndSwapInt(this, SIZECTL, sc, (rs < rs 左移 16 位,相当于原本的二进制低位变成了高位 1000 0000 0001 1100 0000 0000 00000000 然后再+2 =1000 0000 0001 1100 0000 0000 0000 0000+10=1000 0000 0001 1100 0000 00000000 0010 高 RESIZE_STAMP_BITS 16 位代表扩容的标记、低RESIZE_STAMP_BITS 16 位代表并行扩容的线程数。这样来存储有什么好处呢? 第一个线程尝试扩容的时候,为什么是+2 ? 因为 1 表示初始化,2 表示一个线程在执行扩容,而且对 sizeCtl 的操作都是基于位运算的,所以不会关心它本身的数值是多少,只关心它在二进制上的数值,而 sc + 1 会在低 16 位上加 1。 扩容是 ConcurrentHashMap 的精华之一,扩容操作的核心在于数据的转移,在单线程环境下数据的转移很简单,无非就是把旧数组中的数据迁移到新的数组。但是这在多线程环境下,在扩容的时候其他线程也可能正在添加元素,这时又触发了扩容怎么办?可能大家想到的第一个解决方案是加互斥锁,把转移过程锁住,虽然是可行的解决方案,但是会带来较大的性能开销。因为互斥锁会导致所有访问临界区的线程陷入到阻塞状态,持有锁的线程耗时越长,其他竞争线程就会一直被阻塞,导致吞吐量较低。而且还可能导致死锁。而 ConcurrentHashMap 并没有直接加锁,而是采用 CAS 实现无锁的并发同步策略,最精华的部分是它可以利用多线程来进行协同扩容简单来说,它把 Node 数组当作多个线程之间共享的任务队列,然后通过维护一个指针来划分每个线程锁负责的区间,每个线程通过区间逆向遍历来实现扩容,一个已经迁移完的bucket会被替换为一个ForwardingNode节点,标记当前bucket已经被其他线程迁移完了。接下来分析一下它的源码实现 扩容过程图解: ConcurrentHashMap 支持并发扩容,实现方式是,把 Node 数组进行拆分,让每个线程处理自己的区域,假设 table 数组总长度是 64,默认情况下,那么每个线程可以分到 16 个 bucket。然后每个线程处理的范围,按照倒序来做迁移通过 for 自循环处理每个槽位中的链表元素,默认 advace 为真,通过 CAS 设置 transferIndex属性值,并初始化 i 和 bound 值,i 指当前处理的槽位序号,bound 指需要处理的槽位边界,先处理槽位 31 的节点; (bound,i) =(16,31) 从 31 的位置往前推动。 假设这个时候 ThreadA 在进行 transfer,那么逻辑图表示如下 在当前假设条件下,槽位 15 中没有节点,则通过 CAS 插入在第二步中初始化的ForwardingNode 节点,用于告诉其它线程该槽位已经处理过了; sizeCtl 扩容退出机制: 在扩容操作 transfer 的第 2414 行,代码如下 每存在一个线程执行完扩容操作,就通过 cas 执行 sc-1。接着判断(sc-2) !=resizeStamp(n) < 数据迁移阶段的实现分析 通过分配好迁移的区间之后,开始对数据进行迁移。在看这段代码之前,先来了解一下原理 高低位原理分析 ConcurrentHashMap 在做链表迁移时,会用高低位来实现,这里有两个问题要分析一下 如何实现高低位链表的区分,假如我们有这样一个队列: 第 14 个槽位插入新节点之后,链表元素个数已经达到了 8,且数组长度为 16,优先通过扩容来缓解链表过长的问题,扩容这块的图解稍后再分析,先分析高低位扩容的原理。假如当前线程正在处理槽位为 14 的节点,它是一个链表结构,在代码中,首先定义两个变量节点 ln 和 hn,实际就是 lowNode 和 HighNode,分别保存 hash 值的第 x 位为 0 和不等于0 的节点。通过 fn&n 可以把这个链表中的元素分为两类,A 类是 hash 值的第 X 位为 0,B 类是 hash 值的第 x 位为不等于 0(至于为什么要这么区分,稍后分析),并且通过 lastRun 记录最后要处理的节点。最终要达到的目的是,A 类的链表保持位置不动,B 类的链表为 14+16(扩容增加的长度)=30我们把 14 槽位的链表单独伶出来,我们用蓝色表示 fn&n=0 的节点,假如链表的分类是这样: 通过上面这段代码遍历,会记录 runBit 以及 lastRun,按照上面这个结构,那么 runBit 应该是蓝色节点,lastRun 应该是第 6 个节点接着,再通过这段代码进行遍历,生成 ln 链以及 hn 链 接着,通过 CAS 操作,把 hn 链放在 i+n 也就是 14+16 的位置,ln 链保持原来的位置不动。并且设置当前节点为 fwd,表示已经被当前线程迁移完了 迁移完成以后的数据分布如下 为什么要做高低位的划分? 要想了解这么设计的目的,我们需要从 ConcurrentHashMap 的根据下标获取对象的算法来看,在 putVal 方法中 :(f = tabAt(tab, i = (n - 1) & hash)) == null。通过(n-1) & hash 来获得在 table 中的数组下标来获取节点数据,【&运算是二进制运算符,1& 1=1,其他都为 0】 假设我们的 table 长度是 16, 二进制是【0001 0000】,减一以后的二进制是 【0000 1111】。假如某个 key 的 hash 值是 20,对应的二进制是【0001 0100】,仍然按照(n-1) & hash。算法,分别在 16 长度和 32 长度下的计算结果 16 : 0000 1111 & 0001 0100=0000 0100 。32 : 0001 1111 & 0001 0100 =0001 0100 。从结果来看,同样一个 hash 值,在扩容前和扩容之后,得到的下标位置是不一样的,这种情况当然是不允许出现的,所以在扩容的时候就需要考虑,而使用高低位的迁移方式,就是解决这个问题. 大家可以看到,16 位的结果到 32 位的结果,正好增加了 16. 比如 20 & 15=4 、20 & 31=20 ; 4-20 =16 比如 60 & 15=12 、60 & 31=28; 12-28=16 所以对于高位,直接增加扩容的长度,当下次 hash 获取数组位置的时候,可以直接定位到对应的位置。这个地方又是一个很巧妙的设计,直接通过高低位分类以后,就使得不需要在每次扩容的时候来重新计算 hash,极大提升了效率。 接下来回到链表的扩容代码: 扩容结束以后的退出机制: 如果线程扩容结束,那么需要退出,就会执行 transfer 方法的如下代码 put 方法第三阶段: 如果对应的节点存在,判断这个节点的 hash 是不是等于 MOVED(-1),说明当前节点是ForwardingNode 节点,意味着有其他线程正在进行扩容,那么当前现在直接帮助它进行扩容,因此调用 helpTransfer方法 Helps transfer if a resize is in progress. put 方法第四阶段: 这个方法的主要作用是,如果被添加的节点的位置已经存在节点的时候,需要以链表的方式加入到节点中。如果当前节点已经是一颗红黑树,那么就会按照红黑树的规则将当前节点加入到红黑树中。 如果是链表,添加完以后判断链表的长度是否已经达到临界值 8. 如果达到了临界值,这个时候会根据当前数组的长度来决定是扩容还是将链表转化为红黑树。也就是说如果当前数组的长度小于 64,就会先扩容。否则,会把当前链表转化为红黑树 treeifyBin(): 在 putVal 的最后部分,有一个判断,如果链表长度大于 8,那么就会触发扩容或者红黑树的转化操作。 tryPresize(): tryPresize 里面部分代码和 addCount 的部分代码类似,看起来会稍微简单一些 就这样基于CHM的put()方法我们基本上就分析完了,多过几遍源码理解应该不难。对于有些计算模糊的,可以通过写测试类进行佐证。 到此这篇关于JDK1.8中的ConcurrentHashMap使用及场景分析的文章就介绍到这了,更多相关JDK1.8之ConcurrentHashMap内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
private final void transfer(Node
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) <
for (Node
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
else {
synchronized (f) {//对数组该节点位置加锁,开始处理数组该位置的迁移工作
if (tabAt(tab, i) == f) {//再做一次校验
//ln 表示低位, hn 表示高位;接下来这段代码的作用是把链表拆分成两部分,0 在低位,1 在高位
Node
//i<0 说明已经遍历完旧的数组,也就是当前线程已经处理完所有负责的 bucket
if (i <0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) {//如果完成了扩容
nextTable = null;//删除成员变量
table = nextTab;//更新 table 数组
sizeCtl = (n <<1) - (n >>> 1);//更新阈值(32*0.75=24)
return;
}
// sizeCtl 在迁移前会设置为 (rs <
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
final Node
else {//进入到这个分支,说明 f 是当前 nodes 数组对应位置节点的头节点,并且不为空
V oldVal = null;
synchronized (f) { //给对应的头结点加锁
if (tabAt(tab, i) == f) {//再次判断对应下标位置是否为 f 节点
if (fh >= 0) {//头结点的 hash 值大于 0,说明是链表
binCount = 1;//用来记录链表的长度
for (Node
private final void treeifyBin(Node
private final void tryPresize(int size) {
//对 size 进行修复,主要目的是防止传入的值不是一个 2 次幂的整数,
// 然后通过tableSizeFor 来将入参转化为离该整数最近的 2 次幂
int c = (size >= (MAXIMUM_CAPACITY >>> 1)) &#63; MAXIMUM_CAPACITY :
tableSizeFor(size + (size >>> 1) + 1);
int sc;
while ((sc = sizeCtl) >= 0) {
Node