简介 HashMap 是一个散列表 (hash table),它存储的内容是键值对(key-value)映射 。
HashMap 继承于AbstractMap,实现了 Map、Cloneable、java.io.Serializable 接口。
HashMap既然继承了AbstractMap为什么还要实现Map
据java集合框架的创始人Josh Bloch描述,这样的写法是一个失误。
它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的 。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。
HashMap非线程安全 ,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap。
内部实现 存储结构 从结构实现来讲,HashMap是数组+链表+红黑树(JDK1.8增加了红黑树部分)实现的,如下如所示。
Node 在HashMap中有一个 Node[] 类型的table变量,即哈希桶数组
它在第一次使用时初始化,并根据需要调整大小。分配时,长度始终为2的幂。
Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(键值对)。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 transient Node<K,V>[] table;static class Node <K ,V > implements Map .Entry <K ,V > { final int hash; final K key; V value; Node<K,V> next; Node(int hash, K key, V value, Node<K,V> next) { this .hash = hash; this .key = key; this .value = value; this .next = next; } public final K getKey () { return key; } public final V getValue () { return value; } public final String toString () { return key + "=" + value; } public final int hashCode () { return Objects.hashCode(key) ^ Objects.hashCode(value); } public final V setValue (V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals (Object o) { if (o == this ) return true ; if (o instanceof Map.Entry) { Map.Entry<?,?> e = (Map.Entry<?,?>)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true ; } return false ; } }
Map.Entry<K, V>具体代码如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 public static interface Entry <K , V > {@libcore .util.NullFromTypeParam public K getKey () ;@libcore .util.NullFromTypeParam public V getValue () ;@libcore .util.NullFromTypeParam public V setValue (@libcore .util.NullFromTypeParam V value) ;public boolean equals (@libcore .util.Nullable java.lang.Object o) ;public int hashCode () ; @libcore .util.NonNull public static <K extends java.lang.Comparable<? super K>, V> java.util.Comparator<java.util.Map.@libcore .util.NonNull Entry<@libcore .util.NonNull K, @libcore .util.Nullable V>> comparingByKey() { throw new RuntimeException("Stub!" ); }@libcore .util.NonNull public static <K, V extends java.lang.Comparable<? super V>> java.util.Comparator<java.util.Map.@libcore .util.NonNull Entry<@libcore .util.Nullable K, @libcore .util.NonNull V>> comparingByValue() { throw new RuntimeException("Stub!" ); }@libcore .util.NonNull public static <K, V> java.util.Comparator<java.util.Map.@libcore .util.NonNull Entry<@libcore .util.NullFromTypeParam K, @libcore .util.Nullable V>> comparingByKey(@libcore .util.NonNull java.util.Comparator<? super @libcore .util.NullFromTypeParam K> cmp) { throw new RuntimeException("Stub!" ); }@libcore .util.NonNull public static <K, V> java.util.Comparator<java.util.Map.@libcore .util.NonNull Entry<@libcore .util.Nullable K, @libcore .util.NullFromTypeParam V>> comparingByValue(@libcore .util.NonNull java.util.Comparator<? super @libcore .util.NullFromTypeParam V> cmp) { throw new RuntimeException("Stub!" ); }}
Hash碰撞及解决方法 Hash碰撞 当向HashMap中存数据时,需要提供key和value。HashMap将会调用key的hashCode()方法经过hash()计算得到其hash值,最后根据hash值确定Node放在数组的哪个位置。
Hash碰撞即拥有不同hash值的对象经过计算后对应同一个数组位置。
当Hash算法计算结果越分散均匀,Hash碰撞的概率就越小,map的存取效率就会越高。
如果哈希桶数组很大,即使较差的Hash算法,Node也会比较分散,如果哈希桶数组数组很小,即使好的Hash算法也会出现较多碰撞,所以就需要在空间成本和时间成本之间权衡,其实就是在根据实际情况确定哈希桶数组的大小,并在此基础上设计好的Hash算法减少Hash碰撞
链地址法 链地址法是指在碰到哈希冲突的时候,将冲突的元素以链表的形式进行存储。
在Java中HashMap使用了链地址法。
虽然链地址法是一种很好的处理哈希冲突的方法,但是在一些极端情况下链地址法也会出现问题。
比如在某一个哈希桶中的链表过长,这样在进行查询操作时依然很耗时。所以JDK1.8对HashMap底层的实现进行了优化,引入**红黑树** 的数据结构。
hash()方法 实现具体如下:
通过(h = key.hashCode()) ^ (h >>> 16)将低16位与高16位做异或运算得到hash值,至于为什么要这样做,后面再进行解释
1 2 3 4 static final int hash (Object key) { int h; return (key == null ) ? 0 : (h = key.hashCode()) ^ (h >>> 16 ); }
hashCode()方法继承自Object类,当使用自定义对象作为HashMap的key,需要重写hashCode()和equals()方法
table中下标值计算 下标值的实际是hash值对table的长度进行取模运算的结果,即不同的hash值也有可能在相同的hash桶中
在table中的index = hash&(length - 1)
hash%length==hash&(length-1)
前提是length是2的n次方,该等式的证明如下:
用hash&(length-1)计算可以优化计算速度,因为位运算比取余运算效率高很多。且这样计算可以减少碰撞。
为什么这样能减少碰撞呢?
2的n次方实际就是1后面n个0,2的n次方-1 实际就是n个1; 例如长度为9时候,3&(9-1)=0 2&(9-1)=0 ,都在0上碰撞了,即无论什么数字与0进行&运算都为0; 例如长度为8时候,3&(8-1)=3 2&(8-1)=2 ,都是与1进行&运算,其值根据数的具体值得到
其实就是按位“与”的时候,每一位都能 &1 ,也就是和1111……1111111进行与运算
上面我们提到,hash值的计算方法:h = key.hashCode()) ^ (h >>> 16),原因如下:
我们已经知道在计算下标时按位与进行计算可以更快。
数组长度一般而言是小于2的16次方65535的,也就说数组长度的高16位一般全是0。
那么hash值的高位相当于全部没有作用,因为x&0=0,无论x是1还是0,这样hash冲突的几率会很大,为什么呢?
因为如果有很多hash值,它们的低16位相同,但高16都不相同,那么它们得到的索引值却是一样的,会产生冲突
低16位和高16位做了异或运算,这样低16位的值同时拥有了高16位的特征,即使hash值的低16位一样,在做&运算时结果也就不一样,从而减少了冲突的可能
put方法 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 public V put (K key, V value) { return putVal(hash(key), key, value, false , true ); } final V putVal (int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0 ) n = (tab = resize()).length; if ((p = tab[i = (n - 1 ) & hash]) == null ) tab[i] = newNode(hash, key, value, null ); else { Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this , tab, hash, key, value); else { for (int binCount = 0 ; ; ++binCount) { if ((e = p.next) == null ) { p.next = newNode(hash, key, value, null ); if (binCount >= TREEIFY_THRESHOLD - 1 ) treeifyBin(tab, hash); break ; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break ; p = e; } } if (e != null ) { V oldValue = e.value; if (!onlyIfAbsent || oldValue == null ) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null ; }
这里的modCount与集合的fail-fast 机制有关 fail-fast博客
put的流程图如下
重要成员变量 1 2 3 4 5 6 7 8 9 10 11 12 13 14 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 ; static final int MAXIMUM_CAPACITY = 1 << 30 ;int threshold;int size;final float loadFactor;
负载因子 首先要知道一个重要公式:
*threshold=capacity * load factor*
即map中能容纳的最大键值对个数等于容量(hash桶的长度)*负载因子
负载因子 α= 哈希表中元素数/哈希桶数组长度
很显然,α 的值越小哈希冲突的概率越小,查找时的效率也就越高。而减小α 的值就意味着降低了哈希表的使用率。显然这是一个矛盾的关系,不可能有完美解。为了兼顾彼此,装填因子的最大值一般选在0.65~0.9之间。比如HashMap中就将装填因子定为0.75。一旦HashMap的装填因子大于0.75的时候,为了减少哈希冲突,就需要对哈希表进行扩容 操作。比如我们可以将哈希表的长度扩大到原来的2倍。
table扩容 这里我们应该知道,扩容并不是在原数组基础上扩大容量,而是需要申请一个长度为原来2倍的新数组。因此,扩容之后就需要将原来的数据从旧数组中重新散列存放到扩容后的新数组。这个过程我们称之为Rehash 。
接下来看关于扩容的函数resize()的源码:
resize中主要进行初始化或扩容的操作。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 ; static final int MAXIMUM_CAPACITY = 1 << 30 ; final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null ) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0 ; if (oldCap > 0 ) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1 ) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1 ; } else if (oldThr > 0 ) newCap = oldThr; else { newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int )(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0 ) { float ft = (float )newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float )MAXIMUM_CAPACITY ? (int )ft : Integer.MAX_VALUE); } threshold = newThr; ...... }
计算容量的流程图如下:
int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0;
确定好容量以后考虑如何将原来的Node放到新的table中
先通过JDK1.7的源码理解一下扩容的基本原理
1 2 3 4 5 6 7 8 9 10 11 12 13 void resize (int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return ; } Entry[] newTable = new Entry[newCapacity]; transfer(newTable); table = newTable; threshold = (int )(newCapacity * loadFactor); }
主要看transfer()方法
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 void transfer (Entry[] newTable) { Entry[] src = table; int newCapacity = newTable.length; for (int j = 0 ; j < src.length; j++) { Entry<K,V> e = src[j]; if (e != null ) { src[j] = null ; do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } while (e != null ); } } }
1处待插入元素e的next为它该在的数组位置的引用,然后将待插入的e放在该位置上。即待插入的元素将采用**头插法** 放在相应的数组位置。
扩容流程图示如下 :
注:假设Node方框中的值为key的hash值
根据之前说过的计算Node在table数组中的哪个位置的方法(index = hash&(length - 1) )可知Node这样放置的原因:
观察上图可知,扩容2倍后,n-1会把原先最高位1前的0变成1,这样hash值与n-1进行位运算时,可以多检测该位的值。
若hash值在该位为0,则在扩容后的数组位置下标和原先一样。
若hash值在该位为1,则在扩容后的数组位置会加上多出来的那一位的值,在本例中就是100,也就是4,所以hash为6的Node在数组中的位置为2+4 =6
所以我们可以发现,扩容后,Node在数组中的位置下标要么和原来一样,要么加上多出那一位对应的值,实际也就是原先数组的大小。
因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算index,只需要看看它的hash值新增的那个bit是1还是0就好了。这就是JDK1.8做出的优化。
接下来看JDK1.8的扩容策略,依旧是resize()中的代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null ) { for (int j = 0 ; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null ) { oldTab[j] = null ; if (e.next == null ) newTab[e.hash & (newCap - 1 )] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this , newTab, j, oldCap); else { Node<K,V> loHead = null , loTail = null ; Node<K,V> hiHead = null , hiTail = null ; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0 ) { if (loTail == null ) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null ) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null ); if (loTail != null ) { loTail.next = null ; newTab[j] = loHead; } if (hiTail != null ) { hiTail.next = null ; newTab[j + oldCap] = hiHead; } } } } }