Java 8 ConcurrentHashMap源码中竟然隐藏着两个BUG
Java后端技术
共 54351字,需浏览 109分钟
·
2021-04-30 15:06
往期热门文章:
1、《往期精选优秀博文都在这里了!》 2、能挣钱的,开源 SpringBoot 商城系统,功能超全,超漂亮,真TMD香! 3、一套简单通用的Java后台管理系统,拿来即用,非常方便(附项目地址) 4、ConcurrentHashMap有十个提升性能的地方,你都知道吗? 5、Java 中的 Switch 都支持 String 了,为什么不支持 long?
Java 7
的ConcurrenHashMap
的源码我建议大家都看看,那个版本的源码就是Java
多线程编程的教科书。在Java 7
的源码中,作者对悲观锁的使用非常谨慎,大多都转换为自旋锁加volatile
获得相同的语义,即使最后迫不得已要用,作者也会通过各种技巧减少锁的临界区。在上一篇文章中我们也有讲到,自旋锁在临界区比较小的时候是一个较优的选择是因为它避免了线程由于阻塞而切换上下文,但本质上它也是个锁,在自旋等待期间只有一个线程能进入临界区,其他线程只会自旋消耗CPU
的时间片。Java 8
中ConcurrentHashMap
的实现通过一些巧妙的设计和技巧,避开了自旋锁的局限,提供了更高的并发性能。如果说Java 7
版本的源码是在教我们如何将悲观锁转换为自旋锁,那么在Java 8
中我们甚至可以看到如何将自旋锁转换为无锁的方法和技巧。
把书读薄
HashMap
比较熟悉,那这张图也应该不会陌生。事实上在整体的数据结构的设计上Java 8
的ConcurrentHashMap
和HashMap
基本上是一致的。Java 7
中ConcurrentHashMap
为了提升性能使用了很多的编程技巧,但是引入Segment
的设计还是有很大的改进空间的,Java 7
中ConcurrrentHashMap
的设计有下面这几个可以改进的点:Segment
在扩容的时候非扩容线程对本Segment
的写操作时都要挂起等待的对 ConcurrentHashMap
的读操作需要做两次哈希寻址,在读多写少的情况下其实是有额外的性能损失的尽管 size()
方法的实现中先尝试无锁读,但是如果在这个过程中有别的线程做写入操作,那调用size()
的这个线程就会给整个ConcurrentHashMap
加锁,这是整个ConcurrrentHashMap
唯一一个全局锁,这点对底层的组件来说还是有性能隐患的极端情况下(比如客户端实现了一个性能很差的哈希函数) get()
方法的复杂度会退化到O(n)
。
Java 8
的设计是废弃了Segment
的使用,将悲观锁的粒度降低至桶维度,因此调用get
的时候也不需要再做两次哈希了。size()
的设计是Java 8
版本中最大的亮点,我们在后面的文章中会详细说明。至于红黑树,这篇文章仍然不做过多阐述。接下来的篇幅会深挖细节,把书读厚,涉及到的模块有:初始化,put
方法, 扩容方法transfer
以及size()
方法,而其他模块,比如hash
函数等改变较小,故不再深究。准备知识
ForwardingNode
static final class ForwardingNode<K,V> extends Node<K,V> {
final Node<K,V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
// MOVED = -1,ForwardingNode的哈希值为-1
super(MOVED, null, null, null);
this.nextTable = tab;
}
}
Node
和TreeNode
之外,ConcurrentHashMap
还引入了一个新的数据类型ForwardingNode
,我们这里只展示他的构造方法,ForwardingNode
的作用有两个:在动态扩容的过程中标志某个桶已经被复制到了新的桶数组中 如果在动态扩容的时候有 get
方法的调用,则ForwardingNode
将会把请求转发到新的桶数组中,以避免阻塞get
方法的调用,ForwardingNode
在构造的时候会将扩容后的桶数组nextTable
保存下来。
UNSAFE.compareAndSwap***
Java 8
版本的ConcurrentHashMap
实现CAS
的工具,以int
类型为例其方法定义如下:/**
* Atomically update Java variable to <tt>x</tt> if it is currently
* holding <tt>expected</tt>.
* @return <tt>true</tt> if successful
*/
public final native boolean compareAndSwapInt(Object o, long offset,
int expected,
int x);
如果对象 o
起始地址偏移量为offset
的值等于expected
,则将该值设为x
,并返回true
表明更新成功,否则返回false
,表明CAS
失败
初始化
public ConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0) // 检查参数
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel)
initialCapacity = concurrencyLevel;
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size); // tableSizeFor,求不小于size的 2^n的算法,jdk1.8的HashMap中说过
this.sizeCtl = cap;
}
concurrencyLevel
在Java 7
中是Segment
数组的长度,由于在Java 8
中已经废弃了Segment
,因此concurrencyLevel
只是一个保留字段,无实际意义sizeCtl
这个值第一次出现,这个值如果等于-1则表明系统正在初始化,如果是其他负数则表明系统正在扩容,在扩容时sizeCtl
二进制的低十六位等于扩容的线程数加一,高十六位(除符号位之外)包含桶数组的大小信息
put
方法
public V put(K key, V value) {
return putVal(key, value, false);
}
put
方法将调用转发到putVal
方法:final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode());
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// 【A】延迟初始化
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// 【B】当前桶是空的,直接更新
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 【C】如果当前的桶的第一个元素是一个ForwardingNode节点,则该线程尝试加入扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
// 【D】否则遍历桶内的链表或树,并插入
else {
// 暂时折叠起来,后面详细看
}
}
// 【F】流程走到此处,说明已经put成功,map的记录总数加一
addCount(1L, binCount);
return null;
}
put
方法依然牵扯出很多的知识点桶数组的初始化
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
if ((sc = sizeCtl) < 0)
// 说明已经有线程在初始化了,本线程开始自旋
Thread.yield(); // lost initialization race; just spin
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
// CAS保证只有一个线程能走到这个分支
try {
if ((tab = table) == null || tab.length == 0) {
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
// sc = n - n/4 = 0.75n
sc = n - (n >>> 2);
}
} finally {
// 恢复sizeCtl > 0相当于释放锁
sizeCtl = sc;
}
break;
}
}
return tab;
}
initTable
方法的时候,CAS
可以保证只有一个线程能够进入到真正的初始化分支,其他线程都是自旋等待。这段代码中我们关注三点即可:依照前文所述,当有线程开始初始化桶数组时,会通过 CAS
将sizeCtl
置为-1,其他线程以此为标志开始自旋等待当桶数组初始化结束后将 sizeCtl
的值恢复为正数,其值等于0.75倍的桶数组长度,这个值的含义和之前HashMap
中的THRESHOLD
一致,是系统触发扩容的临界点在 finally
语句中对sizeCtl
的操作并没有使用CAS
是因为CAS
保证只有一个线程能够执行到这个地方
添加桶数组第一个元素
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
Node<K,V> c, Node<K,V> v) {
return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}
put
方法的第二个分支会用tabAt
判断当前桶是否是空的,如果是则会通过CAS
写入,tabAt
通过UNSAFE
接口会拿到桶中的最新元素,casTabAt
通过CAS
保证不会有并发问题,如果CAS
失败,则通过循环再进入其他分支判断是否需要新增线程扩容
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
// RESIZE_STAMP_SHIFT = 16
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
// 这里将sizeCtl的值自增1,表明参与扩容的线程数量+1
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
return table;
}
sizeCtl
这个标志位了,临时变量rs
由resizeStamp
这个方法返回static final int resizeStamp(int n) {
// RESIZE_STAMP_BITS = 16
return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
}
n
是一个int
类型的值,所有Integer.numberOfLeadingZeros(n)
的返回值介于0到32之间,如果转换成二进制Integer.numberOfLeadingZeros(n)
的最大值是:00000000 00000000 00000000 00100000Integer.numberOfLeadingZeros(n)
的最小值是:00000000 00000000 00000000 00000000
resizeStampd
的返回值也就介于00000000 00000000 10000000 00000000
到00000000 00000000 10000000 00100000
之间,从这个返回值的范围可以看出来resizeStamp
的返回值高16位全都是0,是不包含任何信息的。因此在ConcurrrentHashMap
中,会把resizeStamp
的返回值左移16位拼到sizeCtl
中,这就是为什么sizeCtl
的高16位包含整个Map
大小的原理。有了这个分析,这段代码中比较长的if
判断也就能看懂了if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
(sc >>> RESIZE_STAMP_SHIFT) != rs
保证所有线程要基于同一个旧的桶数组扩容transferIndex <= 0
已经有线程完成扩容任务了
sc == rs + 1 || sc == rs + MAX_RESIZERS
这两个判断条件如果是细心的同学一定会觉得难以理解,这个地方确实是JDK的一个BUG
,这个BUG
已经在JDK 12
中修复,详细情况可以参考一下Oracle的官网:https://bugs.java.com/bugdatabase/view_bug.do?bug_id=JDK-8214427,这两个判断条件应该写成这样:sc == (rs << RESIZE_STAMP_SHIFT) + 1 || sc == (rs << RESIZE_STAMP_SHIFT) + MAX_RESIZERS
,因为直接比较rs
和sc
是没有意义的,必须要有移位操作。它表达的含义是sc == (rs << RESIZE_STAMP_SHIFT) + 1
当前扩容的线程数为0,即已经扩容完成了,就不需要再新增线程扩容sc == (rs << RESIZE_STAMP_SHIFT) + MAX_RESIZERS
参与扩容的线程数已经到了最大,就不需要再新增线程扩容
transfer
方法中,我们后面会详细看,不过有个小细节可以提前注意,如果nextTable
已经初始化了,transfer
会返回nextTable
的的引用,后续可以直接操作新的桶数组。插入新值
HashMap
一样了,唯一一点不同的就是,这时候要给当前的桶加锁,且看代码:final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode());
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)// 折叠
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {// 折叠}
else if ((fh = f.hash) == MOVED)// 折叠
else {
V oldVal = null;
synchronized (f) {
// 要注意这里这个不起眼的判断条件
if (tabAt(tab, i) == f) {
if (fh >= 0) { // fh>=0的节点是链表,否则是树节点或者ForwardingNode
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val; // 如果链表中有值了,直接更新
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
// 如果流程走到这里,则说明链表中还没值,直接连接到链表尾部
pred.next = new Node<K,V>(hash, key, value, null);
break;
}
}
}
// 红黑树的操作先略过
}
}
}
}
// put成功,map的元素个数+1
addCount(1L, binCount);
return null;
}
tabAt(tab, i) == f
,这个判断的目的是为了处理调用put
方法的线程和扩容线程的竞争。因为synchronized
是阻塞锁,如果调用put
方法的线程恰好和扩容线程同时操作同一个桶,且调用put
方法的线程竞争锁失败,等到该线程重新获取到锁的时候,当前桶中的元素就会变成一个ForwardingNode
,那就会出现tabAt(tab, i) != f
的情况。多线程动态扩容
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
if (nextTab == null) { // 初始化新的桶数组
try {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
transferIndex = n;
}
int nextn = nextTab.length;
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
boolean advance = true;
boolean finishing = false; // to ensure sweep before committing nextTab
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
while (advance) {
int nextIndex, nextBound;
if (--i >= bound || finishing)
advance = false;
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
// 判断是会否是最后一个扩容线程
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // recheck before commit
}
}
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
else if ((fh = f.hash) == MOVED) // 只有最后一个扩容线程才有机会执行这个分支
advance = true; // already processed
else { // 复制过程与HashMap类似,这里不再赘述
synchronized (f) {
// 折叠
}
}
}
}
Java 8
中ConcurrentHashMap
扩容的几个特点:新的桶数组
nextTable
是原先桶数组长度的2倍,这与之前HashMap
一致参与扩容的线程也是分段将
table
中的元素复制到新的桶数组nextTable
中桶一个桶数组中的元素在新的桶数组中均匀的分布在两个桶中,桶下标相差n(旧的桶数组的长度),这一点依然与
HashMap
保持一致
各个线程之间如何通力协作
transferIndex
,这是一个被volatile
修饰的变量,这一点可以保证所有线程读到的一定是最新的值。private transient volatile int transferIndex;
nextTab == null
if (nextTab == null) { // initiating
try {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
transferIndex = n;
}
transferIndex
属性的基础上,上面的这个循环就好理解了while (advance) {
int nextIndex, nextBound;
// 当bound <= i <= transferIndex的时候i自减跳出这个循环继续干活
if (--i >= bound || finishing)
advance = false;
// 扩容的所有任务已经被认领完毕,本线程结束干活
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
// 否则认领新的一段复制任务,并通过`CAS`更新transferIndex的值
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
transferIndex
就像是一个游标,每个线程认领一段复制任务的时候都会通过CAS将其更新为transferIndex - stride
, CAS
可以保证transferIndex
可以按照stride
这个步长降到0。最后一个扩容线程需要二次确认?
for
循环的变量i
代表要复制的桶的在桶数组中的下标,这个值的上限和下限通过游标transferIndex
和步长stride
计算得来,当i
减小为负数,则说明当前扩容线程完成了扩容任务,这时候流程会走到这个分支:// i >= n || i + n >= nextn现在看来取不到
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) { // 【A】完成整个扩容过程
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
// 【B】判断是否是最后一个扩容线程,如果是,则需要重新扫描一遍桶数组,做二次确认
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
// (sc - 2) == resizeStamp(n) << RESIZE_STAMP_SHIFT 说明是最后一个扩容线程
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
// 重新扫描一遍桶数组,做二次确认
finishing = advance = true;
i = n; // recheck before commit
}
}
finishing
被初始化为false
,所以当线程第一次进入这个if
分支的话,会先执行注释为【B】的这个分支,同时因为sizeCtl
的低16位被初始化为参与扩容的线程数加一,因此,当条件(sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT
满足时,就能证明当前线程就是最后一个扩容线程了,这这时候将i
置为n
重新扫描一遍桶数组,并且将finishing
置为true
保证当桶数组被扫描结束后能够进入注释为【A】的分支结束扩容。concurrency-interest
这个邮件列表中也关于这件事咨询了Doug Lea
(地址:http://cs.oswego.edu/pipermail/concurrency-interest/2020-July/017171.html),他给出的回复是:Yes, this is a valid point; thanks. The post-scan was needed in a previous version, and could be removed. It does not trigger often enough to matter though, so is for now another minor tweak that might be included next time CHM is updated.
Doug
在邮件中的措辞用了could be, not often enough等,但也确认了最后一个扩容线程的二次检查是没有必要的。具体的复制过程与HashMap
类似,感兴趣的读者可以翻一下高端的面试从来不会在HashMap的红黑树上纠缠太多这篇文章。size()
方法
addCount()方法
// 记录map元素总数的成员变量
private transient volatile long baseCount;
put
方法的最后,有一个addCount
方法,因为putVal
执行到此处说明已经成功新增了一个元素,所以addCount
方法的作用就是维护当前ConcurrentHashMap
的元素总数,在ConcurrentHashMap
中有一个变量baseCount
用来记录map
中元素的个数,如下图所示,如果同一时刻有n个线程通过CAS同时操作baseCount
变量,有且仅有一个线程会成功,其他线程都会陷入无休止的自旋当中,那一定会带来性能瓶颈。baseCount
,ConcurrentHashMap
引入了一个辅助队列,如下图所示,现在操作baseCount
的线程可以分散到这个辅助队列中去了,调用size()
的时候只需要将baseCount
和辅助队列中的数值相加即可,这样就实现了调用size()
无需加锁。CounterCell
的数组:@sun.misc.Contended static final class CounterCell {
volatile long value;
CounterCell(long x) { value = x; }
}
long
型的变量value
,还需要解决一个问题是,对于某个具体的线程它是如何知道操作辅助队列中的哪个值呢?答案是下面的这个方法:static final int getProbe() {
return UNSAFE.getInt(Thread.currentThread(), PROBE);
}
getProbe
方法会返回当前线程的一个唯一身份码,这个值是不会变的,因此可以将getProbe
的返回值与辅助队列的长度作求余运算得到具体的下标,它的返回值可能是0,如果返回0则需要调用ThreadLocalRandom.localInit()
初始化。addCount
方法中有两个细节需要注意private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
// 注意这里的判断条件,是有技巧的
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
// 变量uncontended记录着这个CAS操作是否成功
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
if (check >= 0) {
// 检查是否需要扩容,后面再详细看
}
}
if
判断条件:if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
}
(as = counterCells) != null
则后面的CAS
是不会执行的,为什么要这么设置呢?作者有两点考虑:原因在于如果 (as = counterCells) != null
,则说明辅助队列已经初始化好了,相比于所有的线程都自旋等待baseCount
这一个变量,让线程通过CAS
去操作队列中的值有更大的可能性成功,因为辅助队列的最大长度为大于当前处理器个数的2的正整数幂,可以支持更大的并发如果辅助队列还没有初始化好,直到有必要的时候再去创建队列,如何判断“必要性”呢?就看对 baseCount
的CAS
操作能否成功,如果失败,就说明当前系统的并发已经比较高了,需要队列的辅助,否则直接操作baseCount
ThreadLocalRandom.getProbe()
在辅助队列中确定的位置不为null
时,才对其做CAS
操作,这本来是一个正常的防御性判断,但是uncontended
记录了CAS
是否成功,如果失败,则会在fullAddCount
中调用ThreadLocalRandom.advanceProbe
换一个身份码调整下当前线程在辅助队列的位置,避免所有线程都在辅助队列的同一个坑位自旋等待。fullAddCount()
方法
// See LongAdder version for explanation
// wasUncontended 记录着调用方CAS是否成功,如果失败则换一个辅助队列的元素继续CAS
private final void fullAddCount(long x, boolean wasUncontended) {
int h;
if ((h = ThreadLocalRandom.getProbe()) == 0) {
ThreadLocalRandom.localInit(); // force initialization
h = ThreadLocalRandom.getProbe();
wasUncontended = true;
}
boolean collide = false; // True if last slot nonempty
for (;;) {
CounterCell[] as; CounterCell a; int n; long v;
// 【A】如果辅助队列已经创建,则直接操作辅助队列
if ((as = counterCells) != null && (n = as.length) > 0) {
if ((a = as[(n - 1) & h]) == null) {
if (cellsBusy == 0) { // Try to attach new Cell
CounterCell r = new CounterCell(x); // Optimistic create
if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean created = false;
try { // Recheck under lock
CounterCell[] rs; int m, j;
if ((rs = counterCells) != null &&
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
rs[j] = r;
created = true;
}
} finally {
cellsBusy = 0;
}
if (created)
break;
continue; // Slot is now non-empty
}
}
collide = false;
}
else if (!wasUncontended) // 如果调用方CAS失败了,本轮空跑,下一个循环换下标继续操作
wasUncontended = true; // Continue after rehash
else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
break;
else if (counterCells != as || n >= NCPU)
// 如果辅助队列长度已经超过了CPU个数,本轮空跑,下一个循环换下标继续操作
collide = false; // At max size or stale
else if (!collide) // 如果上一次操作失败了(CAS失败或者新建CounterCell失败),本轮空跑,下一个循环换下标继续操作
collide = true;
else if (cellsBusy == 0 && // 如果连续两次操作辅助队列失败,则考虑扩容
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
try {
if (counterCells == as) {// Expand table unless stale
CounterCell[] rs = new CounterCell[n << 1];
for (int i = 0; i < n; ++i)
rs[i] = as[i];
counterCells = rs;
}
} finally {
cellsBusy = 0;
}
collide = false;
continue; // Retry with expanded table
}
// 如果上一次操作失败或者调用方CAS失败,都会走到这里,变换要操作的辅助队列下标
h = ThreadLocalRandom.advanceProbe(h);
}
// 【B】如果辅助队列还未创建,则加锁创建
else if (cellsBusy == 0 && counterCells == as &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean init = false;
try { // Initialize table
if (counterCells == as) {
CounterCell[] rs = new CounterCell[2];
rs[h & 1] = new CounterCell(x);
counterCells = rs;
init = true;
}
} finally {
cellsBusy = 0;
}
if (init)
break;
}
// 【C】如果辅助队列创建失败(拿锁失败),则尝试直接操作`baseCount`
else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
break; // Fall back on using base
}
}
counterCells
是一个普通的数组,因此对其的写操作,包括初始化,扩容以及元素的写都需要加锁,加锁的方式是对全局变量cellsBusy
的自旋锁。先看最外层的三个分支:【B】如果辅助队列还没有创建,则加锁创建 【C】如果因为拿锁失败导致辅助队列创建失败,则尝试自旋写入变量 baseCount
,万一真的成功了呢【A】如果辅助队列已经创建了,则直接去操作辅助队列相应的元素
CAS
或者加锁操作辅助队列中的某个元素失败,则首先通过调用ThreadLocalRandom.advanceProbe(h)
换一个队列中的元素继续操作,这次操作是否成功会记录在临时变量collide
中。如果下一次操作还是失败,则说明此时的并发量比较大需要扩容了。如果辅助队列的长度已经超过了CPU
的个数,那就不再扩容,继续换一个元素操作,因为同一时间能运行的线程数最大不会超过计算机的CPU
个数。counterCells
只是一个普通的数组,因此并不是线程安全的,所以对其写操作需要加锁保证并发安全double-check
的动作,我看有的文章将其解读为“类似于单例模式的double-check
”,这个是不对的,作者这样做的原因我们在上一篇文章中有讲过,首先第一个检查cellsBusy == 0
是流程往下走的基础,如果cellsBusy == 1
则直接拿锁失败退出,调用h = ThreadLocalRandom.advanceProbe(h);
更新h
后重试,如果cellsBusy == 0
校验通过,则调用CounterCell r = new CounterCell(x);
初始化一个CounterCell
,这样做是为了减少自旋锁的临界区的大小,以此来提升并发性能cellsBusy
是否为0,如果为1那直接宣告拿锁失败,为什么这么做呢?因为相比于调用UNSAFE
的CAS
操作,直接读取volatile
的消耗更少,如果直接读取cellsBusy
已经能判断出拿锁失败,那就没必要再调用耗时更多的CAS
了cellsBusy
从0到1的更改调用了CAS
但是从1置为0却只用了赋值操作,这是因为CAS
可以保证能走到这条语句的只有一个线程,因此可以用赋值操作来更改cellsBusy
的值。sumCount
ConcurrentHashMap
中的元素个数分散的记录到baseCount
和辅助队列中,调用size()
方法的时候只需要把这些值相加即可。public int size() {
long n = sumCount();
return ((n < 0L) ? 0 :
(n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
(int)n);
}
final long sumCount() {
CounterCell[] as = counterCells; CounterCell a;
long sum = baseCount;
if (as != null) {
for (int i = 0; i < as.length; ++i) {
if ((a = as[i]) != null)
sum += a.value;
}
}
return sum;
}
后记
Java 8
对ConcurrentHashMap
的优化都在点子上,理论上性能会比Java 7
的ConcurrentHashMap
提升不少,但是我暂时还没有找到有对比的两个版本的benchmark,如果有读者朋友做过相关的验证或者看到过有关的benchmark,也欢迎和我沟通。往期热门文章:
1、《历史文章分类导读列表!精选优秀博文都在这里了!》
2、程序员离职事件始末 3、别总写代码,这130个网站比涨工资都重要 4、程序员养生指北 5、如何解决MySQL order by limit语句的分页数据重复问题? 6、Java中八个潜在的内存泄露风险,你知道几个? 7、一个牛逼的 多级缓存 实现方案! 8、阿里一面:如何保障消息100%投递成功、消息幂等性? 9、GitHub 热榜:被网友疯狂恶搞的「蚂蚁呀嘿」项目终于开源了! 10、记住!看小电影前一定要检查一下域名是不是 HTTPS 的,不然....
评论