前面已经对常用的各种map进行了介绍,现在将这些遇到的map放在一起进行对比,这样便于学习和记忆。
在此对各Map的组成进行回顾:
HashMap主要有由数组table和链表/红黑树组成,当链表的长度为8的时候开始转为红黑树,当红黑树的长度小于等于6则转化为链表。 主要节点Node、TreeNode。组成如下图:
LinkedHashMap是在HashMap的数组+链表的基础上,再将全部节点按插入顺序/或者访问顺序构成双向链表。 其组成如下图:
TreeMap本身就是一颗红黑树结构。
ThreadLocalMap采用数组和开放定址法。hash碰撞之后向后加1。其结构如下:
Hashtable比较简单,就是普通的数组+链表结构。
ConcurrentHashMap(1.7)采用分段锁+数组/链表构成。
在1.8中对ConcurrentHashMap的结构进行了修改,不再使用分段锁,而是使用cas+synchronized的方式。
与HashMap一样,当链表长度大于等于8的时候且size大于64则转化为红黑树。当红黑树长度小于等于6则退化为链表。 同时,使用了一些特殊的结构如ForwardingNode在扩容中使用:
ConcurrentSkipListMap采用跳跃表实现。结构如下:
使用key的hashcode,同时将高位右移参与运算。
hashcode=(h = key.hashCode()) ^ (h >>> 16)计算index的时候采用位运算:
i = (n - 1) & hash扩容resize,采用位移的方式按2的幂进行位移:
newCap = oldCap << 1仅仅只有一个元素的时候:
index=e.hash & (newCap - 1)否则高低位计算进行扩容:
(e.hash & oldCap) == 0上述判断为真则在低位,index不变,否则在高位index=index+oldCap。
除红黑树部分之外与HashMap相同。
其put和get过程中,按照key的值进行排序,实际上没用到hashcode。 Entry的Hashcode为:
keyHash ^ valueHash不涉及到位运算。
hashcode采用每次加上固定的魔数值:
private static final int HASH_INCREMENT = 0x61c88647; private static int nextHashCode() { return nextHashCode.getAndAdd(HASH_INCREMENT); }由于key就是ThreadLocal本身,因此这个hashcode实际上是在调用threadLocal的时候就已经产生了。 通过如下方式计算index:
key.threadLocalHashCode & (table.length - 1);由于没有采用拉链法,因此会根据这个值还要对后面的值进行判断。
hashcode即为key的hashCode。 计算index:
index = (hash & 0x7FFFFFFF) % tab.length扩容:逐个遍历:
index = (e.hash & 0x7FFFFFFF) % newCapacity采用这个方法挨个计算新的bucket索引。
hashcode为key.hashCode 加上特殊的计算方法。
private int hash(Object k) { int h = hashSeed; if ((0 != h) && (k instanceof String)) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); // Spread bits to regularize both segment and index locations, // using variant of single-word Wang/Jenkins hash. h += (h << 15) ^ 0xffffcd7d; h ^= (h >>> 10); h += (h << 3); h ^= (h >>> 6); h += (h << 2) + (h << 14); return h ^ (h >>> 16); }get、set、remove均需要两次hash,第一次得到Segment的位置,第二次再计算出HashEntry中的索引。 第一次计算:
j = (hash >>> segmentShift) & segmentMask第二次计算:
index = (tab.length - 1) & hashhash计算方法:
h=key.hashCode,hash = (h ^ (h >>> 16)) & 0x7fffffff索引计算:
i = (n - 1) & hash与HashMap一样,当链表长度大于8且size大于64的时候就会树化,反之当红黑树size小于等于6的时候就会转化为链表。扩容的方式与HashMap一致。 但是要注意HashMap两个版本的区别:
1.锁机制不一样:1.7分段锁,不能动态扩容,1.8 cas+synchronized可以动态调整。2.2.扩容机制不一样,1.7只有每个bucket自己扩容,而且是单线程扩容,1.8支持多线程扩容,采用标志位来进行,每次分配一定数量的bucket给使用的线程,提升了性能。3.性能不一样,1.7固定的分段锁,随着数据量的增加性能急剧下降,1.8可以完美避免因为容量不足导致的hash碰撞情况,而且多线程扩容,性能提升了很多。4.一致性支持不同,1.7是分段锁 强一致性。1.8则是弱一致性。5.size方法实现不同,1.7通过分段锁累加计数器。1.8增加了CountCell的特殊类的数组,随着table的扩容而一并扩容。采用skipList结构,由于底层不用hashcode。也不涉及到位运算。
以上仅限个人愚见,如有不足,请斧正。