HashMap

简介

HashMap 是一个散列表(hash table),它存储的内容是键值对(key-value)映射

HashMap 继承于AbstractMap,实现了 Map、Cloneable、java.io.Serializable 接口。

未命名文件 (15).png

HashMap既然继承了AbstractMap为什么还要实现Map

据java集合框架的创始人Josh Bloch描述,这样的写法是一个失误。

它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。

HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap。

内部实现

存储结构

从结构实现来讲,HashMap是数组+链表+红黑树(JDK1.8增加了红黑树部分)实现的,如下如所示。

Node

在HashMap中有一个 Node[] 类型的table变量,即哈希桶数组

它在第一次使用时初始化,并根据需要调整大小。分配时,长度始终为2的幂。

Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(键值对)。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
transient Node<K,V>[] table;

static class Node<K,V> implements Map.Entry<K,V> {
final int hash;//用来定位数组索引位置
final K key;
V value;
Node<K,V> next;////链表的下一个node

Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}

public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }

public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}

public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}

public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}

Map.Entry<K, V>具体代码如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
public static interface Entry<K, V> {

@libcore.util.NullFromTypeParam public K getKey();

@libcore.util.NullFromTypeParam public V getValue();

@libcore.util.NullFromTypeParam public V setValue(@libcore.util.NullFromTypeParam V value);

public boolean equals(@libcore.util.Nullable java.lang.Object o);

public int hashCode();


//Java8后,接口里可以声明静态方法,并且可以实现。该方法不可以被实现类重写
@libcore.util.NonNull public static <K extends java.lang.Comparable<? super K>, V> java.util.Comparator<java.util.Map.@libcore.util.NonNull Entry<@libcore.util.NonNull K, @libcore.util.Nullable V>> comparingByKey() { throw new RuntimeException("Stub!"); }

@libcore.util.NonNull public static <K, V extends java.lang.Comparable<? super V>> java.util.Comparator<java.util.Map.@libcore.util.NonNull Entry<@libcore.util.Nullable K, @libcore.util.NonNull V>> comparingByValue() { throw new RuntimeException("Stub!"); }

@libcore.util.NonNull public static <K, V> java.util.Comparator<java.util.Map.@libcore.util.NonNull Entry<@libcore.util.NullFromTypeParam K, @libcore.util.Nullable V>> comparingByKey(@libcore.util.NonNull java.util.Comparator<? super @libcore.util.NullFromTypeParam K> cmp) { throw new RuntimeException("Stub!"); }

@libcore.util.NonNull public static <K, V> java.util.Comparator<java.util.Map.@libcore.util.NonNull Entry<@libcore.util.Nullable K, @libcore.util.NullFromTypeParam V>> comparingByValue(@libcore.util.NonNull java.util.Comparator<? super @libcore.util.NullFromTypeParam V> cmp) { throw new RuntimeException("Stub!"); }
}

Hash碰撞及解决方法

Hash碰撞

当向HashMap中存数据时,需要提供key和value。HashMap将会调用key的hashCode()方法经过hash()计算得到其hash值,最后根据hash值确定Node放在数组的哪个位置。

Hash碰撞即拥有不同hash值的对象经过计算后对应同一个数组位置。

当Hash算法计算结果越分散均匀,Hash碰撞的概率就越小,map的存取效率就会越高。

如果哈希桶数组很大,即使较差的Hash算法,Node也会比较分散,如果哈希桶数组数组很小,即使好的Hash算法也会出现较多碰撞,所以就需要在空间成本和时间成本之间权衡,其实就是在根据实际情况确定哈希桶数组的大小,并在此基础上设计好的Hash算法减少Hash碰撞

链地址法

链地址法是指在碰到哈希冲突的时候,将冲突的元素以链表的形式进行存储。

在Java中HashMap使用了链地址法。

虽然链地址法是一种很好的处理哈希冲突的方法,但是在一些极端情况下链地址法也会出现问题。

比如在某一个哈希桶中的链表过长,这样在进行查询操作时依然很耗时。所以JDK1.8对HashMap底层的实现进行了优化,引入**红黑树**的数据结构。

hash()方法

实现具体如下:

通过(h = key.hashCode()) ^ (h >>> 16)将低16位与高16位做异或运算得到hash值,至于为什么要这样做,后面再进行解释

1
2
3
4
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
  • hashCode()方法继承自Object类,当使用自定义对象作为HashMap的key,需要重写hashCode()和equals()方法

table中下标值计算

下标值的实际是hash值对table的长度进行取模运算的结果,即不同的hash值也有可能在相同的hash桶中

在table中的index = hash&(length - 1)

hash%length==hash&(length-1)

前提是length是2的n次方,该等式的证明如下:

IMG_0591(20211024-001634).PNG

用hash&(length-1)计算可以优化计算速度,因为位运算比取余运算效率高很多。且这样计算可以减少碰撞。

为什么这样能减少碰撞呢?

2的n次方实际就是1后面n个0,2的n次方-1 实际就是n个1; 例如长度为9时候,3&(9-1)=0 2&(9-1)=0 ,都在0上碰撞了,即无论什么数字与0进行&运算都为0; 例如长度为8时候,3&(8-1)=3 2&(8-1)=2 ,都是与1进行&运算,其值根据数的具体值得到

其实就是按位“与”的时候,每一位都能 &1 ,也就是和1111……1111111进行与运算

上面我们提到,hash值的计算方法:h = key.hashCode()) ^ (h >>> 16),原因如下:

​ 我们已经知道在计算下标时按位与进行计算可以更快。

​ 数组长度一般而言是小于2的16次方65535的,也就说数组长度的高16位一般全是0。

​ 那么hash值的高位相当于全部没有作用,因为x&0=0,无论x是1还是0,这样hash冲突的几率会很大,为什么呢?

​ 因为如果有很多hash值,它们的低16位相同,但高16都不相同,那么它们得到的索引值却是一样的,会产生冲突

​ 低16位和高16位做了异或运算,这样低16位的值同时拥有了高16位的特征,即使hash值的低16位一样,在做&运算时结果也就不一样,从而减少了冲突的可能

put方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

/**
* Implements Map.put and related methods.
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;

//table为null或长度为0
if ((tab = table) == null || (n = tab.length) == 0)
//初始化或扩容
n = (tab = resize()).length;

//tab[i]是否为空
if ((p = tab[i = (n - 1) & hash]) == null)
//根据传入的值创建新的节点并放在tab[i]
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//如果key已经存在
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//赋值给e
e = p;
//如果是树节点
else if (p instanceof TreeNode)
//用红黑树的方法插入该节点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
//没有与待插入Node的key相同的key
if ((e = p.next) == null) {
//创建Node并插入链表
p.next = newNode(hash, key, value, null);
//TREEIFY_THRESHOLD值为8,如果链表长度大于8,则转换为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//若原先的map中有该key
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break;
//继续遍历
p = e;
}
}
//若不为null,则待插入Node的key原先存在
if (e != null) { // existing mapping for key
V oldValue = e.value;
//onlyIfAbsent为true时不改变原先key对应的value值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

这里的modCount与集合的fail-fast 机制有关 fail-fast博客

put的流程图如下

未命名文件 (16).png

重要成员变量

1
2
3
4
5
6
7
8
9
10
11
12
13
14
//默认初始容量为16,其值必须是2的整数次方
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;

//最大容量,2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;

//map中所能容纳的最大键值对个数,当元素数量超过这个值时,将进行扩容;
int threshold;

//map中实际存在的键值对的个数
int size;

//负载因子
final float loadFactor;

负载因子

首先要知道一个重要公式:

*threshold=capacity * load factor*

即map中能容纳的最大键值对个数等于容量(hash桶的长度)*负载因子

负载因子 α= 哈希表中元素数/哈希桶数组长度

很显然,α的值越小哈希冲突的概率越小,查找时的效率也就越高。而减小α的值就意味着降低了哈希表的使用率。显然这是一个矛盾的关系,不可能有完美解。为了兼顾彼此,装填因子的最大值一般选在0.65~0.9之间。比如HashMap中就将装填因子定为0.75。一旦HashMap的装填因子大于0.75的时候,为了减少哈希冲突,就需要对哈希表进行扩容操作。比如我们可以将哈希表的长度扩大到原来的2倍。

table扩容

这里我们应该知道,扩容并不是在原数组基础上扩大容量,而是需要申请一个长度为原来2倍的新数组。因此,扩容之后就需要将原来的数据从旧数组中重新散列存放到扩容后的新数组。这个过程我们称之为Rehash

接下来看关于扩容的函数resize()的源码:

resize中主要进行初始化或扩容的操作。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
	//默认初始容量为16,其值必须是2的整数次方
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//最大容量,2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;

final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//表示存储数据的数组已经被初始化过
if (oldCap > 0) {

// 判断当前容量是否超过最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
// 若超过最大容量,表示无法再进行扩容。更新threshold为int的最大值,并返回旧数组
threshold = Integer.MAX_VALUE;
return oldTab;
}
//当容量变为原先的两倍小于最大容量
//且原先的容量超过默认值(16)时
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 变成原来的两倍
}

/*
不满足上面的oldCap > 0,即原先数组未进行过初始化
若当前阈值不为0,就将数组的新容量记录为当前的阈值;
为什么这里的oldThr在未初始化数组的时候就有值呢?
这是因为HashMap有两个带参构造器,可以指定初始容量,
若你调用了这两个可以指定初始容量的构造器,
这两个构造器就会将阈值记录为第一个大于等于你指定容量,且满足2^n的数 */
else if (oldThr > 0)
newCap = oldThr;

// 若上面的条件都不满足,表示你是调用默认构造器创建的HashMap,且还没有初始化table数组
else { //用默认值去初始化
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}

// 经过上面的步骤后,newCap一定有值,但是newThr有可能是0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//接下来的代码后面会讲
......
}

计算容量的流程图如下:

int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;

未命名文件 (17).png

确定好容量以后考虑如何将原来的Node放到新的table中

先通过JDK1.7的源码理解一下扩容的基本原理

1
2
3
4
5
6
7
8
9
10
11
12
13
void resize(int newCapacity) {   //传入新的容量
Entry[] oldTable = table; //引用扩容前的Entry数组
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了
threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
return;
}

Entry[] newTable = new Entry[newCapacity]; //初始化一个新的Entry数组
transfer(newTable); //!!将数据转移到新的Entry数组里
table = newTable; //HashMap的table属性引用新的Entry数组
threshold = (int)(newCapacity * loadFactor);//修改阈值
}

主要看transfer()方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
void transfer(Entry[] newTable) {
Entry[] src = table; //src引用了旧的Entry数组
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) { //遍历旧的Entry数组
Entry<K,V> e = src[j]; //取得旧Entry数组的每个元素
if (e != null) {
src[j] = null;//释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)
do {
Entry<K,V> next = e.next;
int i = indexFor(e.hash, newCapacity); //重新计算每个元素在数组中的位置
e.next = newTable[i]; //1
newTable[i] = e; //将元素放在数组上
e = next; //访问下一个Entry链上的元素
} while (e != null);
}
}
}

1处待插入元素e的next为它该在的数组位置的引用,然后将待插入的e放在该位置上。即待插入的元素将采用**头插法**放在相应的数组位置。

扩容流程图示如下

注:假设Node方框中的值为key的hash值

未命名文件 (9).png

根据之前说过的计算Node在table数组中的哪个位置的方法(index = hash&(length - 1) )可知Node这样放置的原因:

IMG_0607(20211029-153420).PNG

观察上图可知,扩容2倍后,n-1会把原先最高位1前的0变成1,这样hash值与n-1进行位运算时,可以多检测该位的值。

若hash值在该位为0,则在扩容后的数组位置下标和原先一样。

若hash值在该位为1,则在扩容后的数组位置会加上多出来的那一位的值,在本例中就是100,也就是4,所以hash为6的Node在数组中的位置为2+4 =6

所以我们可以发现,扩容后,Node在数组中的位置下标要么和原来一样,要么加上多出那一位对应的值,实际也就是原先数组的大小。

因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算index,只需要看看它的hash值新增的那个bit是1还是0就好了。这就是JDK1.8做出的优化。

接下来看JDK1.8的扩容策略,依旧是resize()中的代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//当原数组的位置j有元素时才继续下面的操作
if ((e = oldTab[j]) != null) {
//先释放原位置的引用
oldTab[j] = null;

// 若原先table数组的j位置只有一个节点,则直接将这个节点计算出下标值后放入新数组
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;

// 若第一个节点是一个树节点,表示原数组这个位置的链表已经被转为了红黑树,直接调用红黑树的方法将节点加入到新数组中
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

// 上面两种情况都不满足,表示这个位置是一条不止一个节点的链表
else {
//根据之前说的,扩容后Node的在数组的位置只有两种情况,也就是最多有两个位置的链表存储原位置的所有Node
//所以我们可以先把这两个链表构建出来,最后再插入数组的相应位置
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
//遍历数组j位置链表上的节点
do {
// 记录当前节点的下一个节点
next = e.next;

// e.hash & oldCap(10...0)这一步就是前面说的判断多出的这一位是否为1
// 若与原容量做与运算,结果为0,表示将这个节点放入到新数组中,下标不变
if ((e.hash & oldCap) == 0) {
//接下来是构建存储下标不变的Node的链表的操作
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}

// 若与原容量做与运算,结果为1,表示将这个节点放入到新数组中,下标将改变
else {
//接下来是构建存储下标改变的Node的链表的操作
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 所有节点遍历完后,判断我们构建的下标不变的链表是否有节点
if (loTail != null) {
// 将这条链表的最后一个节点的next指向null
loTail.next = null;
// 将其放入新数组的相同位置
newTab[j] = loHead;
}
// 所有节点遍历完后,判断我们构建的下标改变的链表是否有节点
if (hiTail != null) {
hiTail.next = null;
// 这条链表放入的位置要在原先的下标值基础上加上oldCap
newTab[j + oldCap] = hiHead;
}
}
}
}
}