00. 问题背景

先看下下面的代码是否有问题:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
public static JSONObject parseConfig(String configStr) {
JSONObject config = new JSONObject();
if (!StringUtils.isEmpty(configStr)) {
JSONObject rawConfig = JSONObject.parseObject(configStr);
rawConfig.keySet().parallelStream().forEach(key -> {
Object obj = rawConfig.get(key);
if (JSONObject.class.equals(obj.getClass())) {
JSONObject path1Config = new JSONObject();
((JSONObject)obj).keySet().stream().forEach(path2Key -> {
JSONObject path2Config = ((JSONObject)obj).getJSONObject(path2Key);
Arrays.stream(path2Key.split(",")).forEach(keyDetail -> {
path1Config.put(keyDetail, path2Config);
});
});
config.put(key, path1Config);
} else {
config.put(key, obj);
}
});
}
return config;
}

眼尖的读者可能已经看到,这里使用了并行流,但是JSONObject底层是基于HashMap,是线程不安全的,所以就有可能存在隐患。
所以,就有可能存在一种现象,从配置文件中读取配置项的时候,为了图快,使用了Stream#parallelStream方法并发的put HashMap,然后在多线程的环境下,就会导致老线程put的值丢失的问题

01. 问题复现

下面,用一串简单的代码来复现下上述问题:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
public class MapTest {
public static void main(String[] args) {

List<Key> list = ImmutableList.of(Key.of(1), Key.of(2), Key.of(3),
Key.of(4), Key.of(9),Key.of(10));
AtomicInteger index = new AtomicInteger(0);
for (int i = 0; i < 100; i++) {
CountDownLatch tag = new CountDownLatch(6);
Map<Key, Integer> map = new HashMap<>(4);
for (int j = 0; j < 6; j++) {
new Thread(() -> {
synchronized (Object.class) {
if (list.size() <= index.get()) {
tag.countDown();
return;
}
}
map.put(list.get(index.getAndAdd(1)), 1);
tag.countDown();
}).start();
}
tag.await();
map.forEach((k,v) -> System.out.println(k));
}

}

private static class Key {

private int hash;

public static Key of(int hash) {
Key key = new Key();
key.hash = hash;
return key;
}

@Override
public boolean equals(Object o) {
return false;
}

@Override
public int hashCode() {
return hash;
}

@Override
public String toString() {
return "Key{" +
"hash=" + hash +
'}';
}
}
}

上面代码的逻辑很简单,用并行流put到HashMap中,如果处理完成后,将结果打印出来。上述逻辑循环100次,发现有一次的结果如下:

1
2
3
4
Key{hash=1}
Key{hash=2}
Key{hash=3}
Key{hash=4}

发现竟然有一次循环中,多线程去put了6个值,但是HashMap中只有4个,这是为什么呢?

02. 问题原因

首先分析下每个Key的情况,根据HashMap的映射原理,再结合我们设置每个key的Hash值,我们可以发现,按照预期,在不扩容且CAP=4的情况下,正常的HashMap结构如下:

  1. Key1 -> Key9
  2. Key2 -> Key10
  3. Key3
  4. Key4

扩容的线程安全问题

当出现上面的异常情况的时候,我们可以判定,应该是在扩容情况下,老的值把新插入的值冲掉了,那么为什么会发生这种情况呢?我们先来看一下扩容的代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
final Node<K,V>[] resize() {
//...
// 申请新的扩容数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// 将新的空数组赋值给老数组
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
// 直接把老数组的值复制给新数组【问题点】
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// ...
else { // preserve order
// ...
newTab[j] = loHead;
// ...
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}

从代码中我们可以看出来,当扩容的时候,新的空数组会直接复制给table,同时,老桶的值会直接赋值给新数组,这样在多线程下就会有问题,下面看一个例子:

  1. 线程1开始扩容,时间片用完,此时,其他线程抢占到时间片,把新的元素Key9和Key10放入了新的已经扩容的tab中。结构分别是:newTab[1]=Key9,newTab[2]=Key10

  2. 其他线程执行完毕,让出时间片,线程1继续执行扩容,当便利到oldTab[1]=Key1的时候,它会直接把newTab[1]=oldTab[1]=Key1,这里就可以看出,已经把newTab[1]=Key9给冲掉了

  3. 同理,newTab[2]=Key10也会被Key[2]冲掉

  4. 从最后的结果中我们可以看到,扩容过程中,其他线程插入的Key9和Key10两个值都被覆盖了。不过有一个点我们要注意,此时size仍然为6,但是Map中的元素却不是9对,这就是线程安全带来的问题

相同桶插入的线程安全问题

仍然是上面的例子,假如说Key1和Key9被两个线程同时插入,会触发什么问题呢?我重新跑了一下上面的例子,发下了会打印出如下代码:

1
2
3
4
5
Key{hash=9}
Key{hash=10}
Key{hash=2}
Key{hash=3}
Key{hash=4}

很显然Key1被Key9覆盖了,这个原因是什么呢?
这个和扩容是没有关系的,我们来看下put代码:

1
2
3
4
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);

假如线程1刚执行完第三行,判断完成后,时间片用完,此时线程2进入执行,将tab[1]=Key9插入完成后结束,此时线程1恢复执行,那么线程1再执行tab[1]=Key1重新插入,就会覆盖掉线程2的值。看一下例子:

  1. 线程1执行tab[1]=Key1,此时时间片用完

  2. 线程2执行tab[1]=Key9的插入,且执行完成:

  3. 线程1恢复时间片,继续执行,原来的元素被覆盖掉

03. 解决方案

  1. 采用线程安全的Map,如ConcurrentHashMap
  2. 尽量不要使用parallelStream,因为它的行为是非常难以控制的 (《Effective Java》)
  3. 不要只使用流的foreach能力,要结合filter,collect等一起使用才会提高效率,如下:
1
2
Map<Key, Integer> collect = list.parallelStream()
.collect(Collectors.toMap(e -> e, e -> 1));

04. 事后思考

很多人都知道,在并发情况下不能使用HashMap,而要使用ConcurrentHashMap,但是如果问为什么,可能刷过八股文的人会说,因为HashMap在并发情况扩容的情况下可能会出现死循环的问题。如果对HashMap不了解的人,可能会被这个回答所懵到,事实上,并发扩容所导致的死循环问题,只存在于1.7,而且在1.8的时候已经被修复了。那么,除了并发死循环,HashMap在并发调用下究竟会出现哪些线程安全问题呢?正像文中所说的

  1. 扩容导致的put失效问题,同时,元素的个数size和实际元素的个数不符合
  2. 如果线程1在在put元素之前时间片用完被切换,线程2刚好put了同一个桶中的元素,然后切换到线程1,那么此时线程1put的元素就会覆盖掉线程2刚才put的元素

除了这两种情况,一定还有其他情况,只不过笔者水平和时间有限,暂时就说这么多。
其实,再进一步,我们不妨思考一下,ConcurrentHashMap是如何解决上面的这些线程安全问题呢?