Java7 HashMap
# 概述
之所以把HashSet和HashMap放在一起讲解,是因为二者在Java里有着相同的实现,前者仅仅是对后者做了一层包装,也就是说HashSet里面有一个HashMap(适配器模式)。因此本文将重点分析HashMap。
HashMap实现了Map接口,即允许放入key
为null
的元素,也允许插入value
为null
的元素;除该类未实现同步外,其余跟Hashtable
大致相同;跟TreeMap不同,该容器不保证元素顺序,根据需要该容器可能会对元素重新哈希,元素的顺序也会被重新打散,因此不同时间迭代同一个HashMap的顺序可能会不同。 根据对冲突的处理方式不同,哈希表有两种实现方式,一种开放地址方式(Open addressing),另一种是冲突链表方式(Separate chaining with linked lists)。Java7 HashMap采用的是冲突链表方式。
- 缺点:在极端情况下,如果大量 Key 的哈希值相同(哈希碰撞),那么这个桶对应的链表会变得非常长。此时,对这个桶的查找操作时间复杂度会从 O(1) 退化为 O(n),性能急剧下降。
从上图容易看出,如果选择合适的哈希函数,put()
和get()
方法可以在常数时间内完成。但在对HashMap进行迭代时,需要遍历整个table以及后面跟的冲突链表。因此对于迭代比较频繁的场景,不宜将HashMap的初始大小设的过大。
有两个参数可以影响HashMap的性能: 初始容量(inital capacity)和负载系数(load factor)。初始容量指定了初始table
的大小,负载系数用来指定自动扩容的临界值。当entry
的数量超过capacity*load_factor
时,容器将自动扩容并重新哈希。对于插入元素较多的场景,将初始容量设大可以减少重新哈希的次数。
将对象放入到HashMap或HashSet中时,有两个方法需要特别关心: hashCode()
和equals()
。hashCode()
方法决定了对象会被放到哪个bucket
里,当多个对象的哈希值冲突时,equals()
方法决定了这些对象是否是“同一个对象”。所以,如果要将自定义的对象放入到HashMap
或HashSet
中,需要**@Override** hashCode()
和equals()
方法。
# get()
get(Object key)
方法根据指定的key
值返回对应的value
,该方法调用了getEntry(Object key)
得到相应的entry
,然后返回entry.getValue()
。因此getEntry()
是算法的核心。 算法思想是首先通过hash()
函数得到对应bucket
的下标,然后依次遍历冲突链表,通过key.equals(k)
方法来判断是否是要找的那个entry
。
上图中hash(k)&(table.length-1)
等价于hash(k)%table.length
,原因是HashMap要求table.length
必须是2的指数,因此table.length-1
就是二进制低位全是1,跟hash(k)
相与会将哈希值的高位全抹掉,剩下的就是余数了。
//getEntry()方法
final Entry<K,V> getEntry(Object key) {
......
int hash = (key == null) ? 0 : hash(key);
for (Entry<K,V> e = table[hash&(table.length-1)];//得到冲突链表
e != null; e = e.next) {//依次遍历冲突链表中的每个entry
Object k;
//依据equals()方法判断是否相等
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
}
return null;
}
# put()
put(K key, V value)
方法是将指定的key, value
对添加到map
里。该方法首先会对map
做一次查找,看是否包含该元组,如果已经包含则直接返回,查找过程类似于getEntry()
方法;如果没有找到,则会通过addEntry(int hash, K key, V value, int bucketIndex)
方法插入新的entry
,插入方式为头插法。
//addEntry()
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length);//自动扩容,并重新哈希
hash = (null != key) ? hash(key) : 0;
bucketIndex = hash & (table.length-1);//hash%table.length
}
//在冲突链表头部插入新的entry
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<>(hash, key, value, e);
size++;
}
# remove()
remove(Object key)
的作用是删除key
值对应的entry
,该方法的具体逻辑是在removeEntryForKey(Object key)
里实现的。removeEntryForKey()
方法会首先找到key
值对应的entry
,然后删除该entry
(修改链表的相应引用)。查找过程跟getEntry()
过程类似。
//removeEntryForKey()
final Entry<K,V> removeEntryForKey(Object key) {
......
int hash = (key == null) ? 0 : hash(key);
int i = indexFor(hash, table.length);//hash&(table.length-1)
Entry<K,V> prev = table[i];//得到冲突链表
Entry<K,V> e = prev;
while (e != null) {//遍历冲突链表
Entry<K,V> next = e.next;
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k)))) {//找到要删除的entry
modCount++; size--;
if (prev == e) table[i] = next;//删除的是冲突链表的第一个entry
else prev.next = next;
return e;
}
prev = e; e = next;
}
return e;
}
# Java8 HashMap
Java8 对 HashMap 进行了一些修改,最大的不同就是利用了红黑树,所以其由 数组+链表+红黑树 组成。
根据 Java7 HashMap 的介绍,我们知道,查找的时候,根据 hash 值我们能够快速定位到数组的具体下标,但是之后的话,需要顺着链表一个个比较下去才能找到我们需要的,时间复杂度取决于链表的长度,为 O(n)。
为了降低这部分的开销,在 Java8 中,当链表中的元素达到了 8 个时, 并且数组的总容量大于等于 64 ,会将链表转换为红黑树,在这些位置进行查找的时候可以降低时间复杂度为 O(logN)。
- 优点:红黑树是一种自平衡的二叉查找树,其查找、插入、删除的时间复杂度稳定在 O(log n)。这使得
HashMap
在最坏情况下的性能也得到了保障,从 O(n) 提升到了 O(log n)。
来一张图简单示意一下吧:
注意,上图是示意图,主要是描述结构,不会达到这个状态的,因为这么多数据的时候早就扩容了。
Java7 中使用 Entry 来代表每个 HashMap 中的数据节点,Java8 中使用 Node,基本没有区别,都是 key,value,hash 和 next 这四个属性,不过,Node 只能用于链表的情况,红黑树的情况需要使用 TreeNode。
我们根据数组元素中,第一个节点数据类型是 Node 还是 TreeNode 来判断该位置下是链表还是红黑树的。
核心结构与关键字段
// java.util.HashMap
// 存储桶的数组,大小总是2的幂次方。
transient Node<K,V>[] table;
// 缓存的entrySet。
transient Set<Map.Entry<K,V>> entrySet;
// Map中键值对的数量。
transient int size;
// 结构性修改的次数,用于实现Fail-Fast。
transient int modCount;
// 下一次需要扩容的阈值 (threshold = capacity * loadFactor)。
int threshold;
// 负载因子,决定了HashMap的填充比。
final float loadFactor;
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
:默认初始容量为 16。static final float DEFAULT_LOAD_FACTOR = 0.75f;
:默认负载因子为 0.75。static final int TREEIFY_THRESHOLD = 8;
:链表树化的阈值。当一个桶中链表长度达到 8 时,可能触发树化。static final int UNTREEIFY_THRESHOLD = 6;
:树退化为链表的阈值。当扩容时,如果树中节点数小于 6,会退化回链表。
内部节点类 Node
和 TreeNode
Node<K,V>
:链表节点,是 HashMap
的基本存储单元。
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
// ... 构造函数和方法
}
TreeNode<K,V>
:红黑树节点,继承自Node
,拥有额外的红黑树相关属性(如parent
,left
,right
,red
)。
哈希函数:hash(Object key)
这是 HashMap
的“灵魂”之一,它负责将任意 Key 的 hashCode()
转换成一个更适合在 HashMap
中使用的哈希值。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
这个操作看起来简单,但非常关键:
- 获取
key
的hashCode()
,这是一个32位的int
值h
。 - 将
h
右移 16 位,得到其高 16 位。 - 将原始的
h
与右移后的h
进行异或(XOR)运算。
为什么这么做? 这是为了让哈希值的高位也能参与到后续的索引计算中,从而让哈希值分布得更均匀,减少碰撞。因为后续计算数组索引只用了哈希值的低位(hash & (n-1)
),如果不进行这个“高位扰动”,一旦 hashCode()
的实现不佳(例如高位变化大,低位变化小),就很容易产生碰撞。
# put 过程分析 重要!333
拆解 putVal
的执行流程:
- 计算索引:
-
- 如果
table
为空或长度为 0,调用resize()
方法进行初始化。 - 计算 Key 应该存放在哪个桶中:
i = (n - 1) & hash
。其中n
是数组长度,hash
是经过扰动函数计算后的哈希值。因为n
总是 2 的幂,所以(n-1)
的二进制表示是全 1 的,这行代码等价于hash % n
,但位运算效率更高。
- 如果
- 处理桶中情况:
-
- Case 1: 桶为空。直接创建一个新的
Node
放入该桶table[i] = newNode(...)
。 - Case 2: 桶不为空。
- Case 1: 桶为空。直接创建一个新的
-
-
- a. 首节点匹配:检查桶中的第一个节点
p
,如果p
的哈希值和key
都与要插入的key
相同,则说明是更新操作。记录旧值,用新值覆盖,然后返回旧值。 - b. 树节点:如果
p
是一个TreeNode
,说明这个桶已经是红黑树结构。调用p.putTreeVal(...)
方法将新键值对插入到树中。 - c. 链表:如果
p
是链表头节点,则遍历整个链表。
- a. 首节点匹配:检查桶中的第一个节点
-
-
-
-
- 在遍历过程中,如果找到一个节点的
key
与要插入的key
相同,则执行更新操作,同 a。 - 如果遍历到链表末尾仍未找到相同的
key
,则在链表尾部创建一个新Node
并链接上去。 - 插入后检查:链接上新节点后,检查该链表的长度是否达到
TREEIFY_THRESHOLD - 1
(因为是从0开始计数,所以是7)。如果达到,则调用treeifyBin(...)
方法将此链表转换为红黑树。
- 在遍历过程中,如果找到一个节点的
-
-
- 更新计数并检查扩容:
-
- 如果成功插入了一个新节点(而不是更新),
size
加一。 - 检查
size
是否超过了扩容阈值threshold
。如果超过,则调用resize()
方法。
- 如果成功插入了一个新节点(而不是更新),
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
// 第四个参数 onlyIfAbsent 如果是 true,那么只有在不存在该 key 时才会进行 put 操作
// 第五个参数 evict 我们这里不关心
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 第一次 put 值的时候,会触发下面的 resize(),类似 java7 的第一次 put 也要初始化数组长度
// 第一次 resize 和后续的扩容有些不一样,因为这次是数组从 null 初始化到默认的 16 或自定义的初始容量
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 找到具体的数组下标,如果此位置没有值,那么直接初始化一下 Node 并放置在这个位置就可以了
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {// 数组该位置有数据
Node<K,V> e; K k;
// 首先,判断该位置的第一个数据和我们要插入的数据,key 是不是"相等",如果是,取出这个节点
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果该节点是代表红黑树的节点,调用红黑树的插值方法,本文不展开说红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 到这里,说明数组该位置上是一个链表
for (int binCount = 0; ; ++binCount) {
// 插入到链表的最后面(Java7 是插入到链表的最前面)
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// TREEIFY_THRESHOLD 为 8,所以,如果新插入的值是链表中的第 8 个
// 会触发下面的 treeifyBin,也就是将链表转换为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 如果在该链表中找到了"相等"的 key(== 或 equals)
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
// 此时 break,那么 e 为链表中[与要插入的新值的 key "相等"]的 node
break;
p = e;
}
}
// e!=null 说明存在旧值的key与要插入的key"相等"
// 对于我们分析的put操作,下面这个 if 其实就是进行 "值覆盖",然后返回旧值
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果 HashMap 由于新插入这个值导致 size 已经超过了阈值,需要进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
和 Java7 稍微有点不一样的地方就是,Java7 是先扩容后插入新值的,Java8 先插值再扩容,不过这个不重要。
# 数组扩容
resize() 方法用于初始化数组或数组扩容,每次扩容后,容量为原来的 2 倍,并进行数据迁移。
扩容是一个重新分配和迁移数据的过程:
- 创建新数组:创建一个容量是原容量两倍的新数组
newTab
。 - 更新阈值:计算新的扩容阈值
newThreshold
。 - 数据迁移:遍历旧数组
oldTab
的每一个桶。
-
- 如果桶为空,则跳过。
- 如果桶不为空,将其中的所有节点重新分配到
newTab
中。这里的迁移过程在 JDK 1.8 中非常巧妙:
-
-
- 一个桶中的链表(或树)中的所有节点,在扩容后只可能去往两个位置:原索引位置或原索引 + 旧容量的位置。
- 这个决定因素是节点的
hash
值与oldCapacity
进行&
运算的结果。因为oldCapacity
是 2 的幂,其二进制只有一个 1。这个&
操作实际上是在检查hash
值中新增的那个二进制位是 0 还是 1。 - 因此,源码中可以一次性遍历旧链表,将其拆分成两个子链表(一个
lo
链表,一个hi
链表),然后将这两个子链表分别放入新数组的对应位置。这避免了对每个节点都重新计算一次哈希索引,效率很高。
-
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) { // 对应数组扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 将数组大小扩大一倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 将阈值扩大一倍
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // 对应使用 new HashMap(int initialCapacity) 初始化后,第一次 put 的时候
newCap = oldThr;
else {// 对应使用 new HashMap() 初始化后,第一次 put 的时候
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 用新的数组大小初始化新的数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab; // 如果是初始化数组,到这里就结束了,返回 newTab 即可
if (oldTab != null) {
// 开始遍历原数组,进行数据迁移。
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 如果该数组位置上只有单个元素,那就简单了,简单迁移这个元素就可以了
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 如果是红黑树,具体我们就不展开了
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else {
// 这块是处理链表的情况,
// 需要将此链表拆成两个链表,放到新的数组中,并且保留原来的先后顺序
// loHead、loTail 对应一条链表,hiHead、hiTail 对应另一条链表,代码还是比较简单的
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
// 第一条链表
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
// 第二条链表的新的位置是 j + oldCap,这个很好理解
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
# get 过程分析
相对于 put 来说,get 真的太简单了。
- 计算 key 的 hash 值,根据 hash 值找到对应数组下标: hash & (length-1)
- 判断数组该位置处的元素是否刚好就是我们要找的,如果不是,走第三步
- 判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据,如果不是,走第四步
- 遍历链表,直到找到相等(==或equals)的 key
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 判断第一个节点是不是就是需要的
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 判断是否是红黑树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 链表遍历
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
关键设计要点
为什么容量总是 2 的幂次方?
- 高效的索引计算:使用
hash & (capacity - 1)
来代替hash % capacity
。位运算 (&
) 比取模运算 (%
) 快得多。 - 均匀的 rehash 分布:在扩容时,保证了旧桶中的元素能均匀地分散到新桶的两个可能位置中,减少了数据迁移后的哈希碰撞。
HashMap
内部会通过算法将用户指定的初始容量调整为最接近它的 2 的幂次方。
loadFactor
(负载因子) 的作用
- 负载因子(默认0.75)是一个权衡时间和空间的参数。
- 较高的负载因子(如 0.9):可以减少
HashMap
所占用的内存空间,但会增加哈希碰撞的概率,导致链表/树变长,从而增加查找时间。 - 较低的负载因子(如 0.6):会使
HashMap
更频繁地扩容,占用更多内存,但能有效减少碰撞,保证 O(1) 的平均查找时间。 - 0.75 是一个在时间和空间上都比较理想的折中值。
线程安全性
HashMap
是非线程安全的。在多线程环境下并发地对 HashMap
进行 put
操作:
- 在 JDK 1.7 中可能导致链表形成环形结构,在下一次
get
时会造成死循环。 - 在 JDK 1.8 中虽然不会产生环形链表,但仍然可能导致数据覆盖、
size
计数不准确等问题。
线程安全的替代方案:
Hashtable
: 古老的线程安全类,通过对几乎所有方法加synchronized
锁实现,性能极差,不推荐使用。Collections.synchronizedMap(new HashMap<>())
: 使用装饰器模式,同样是对整个 Map 对象加锁,并发性能不佳。ConcurrentHashMap
: 推荐的并发替代方案。它在 JDK 1.8 中采用了 CAS +synchronized
的分段锁思想,在保证线程安全的同时,提供了极高的并发性能。
# HashSet
前面已经说过HashSet是对HashMap的简单包装,对HashSet的函数调用都会转换成合适的HashMap方法, 只利用了 HashMap
的 key
必须唯一的特性来存储元素,而完全忽略了 value
的部分。
//HashSet是对HashMap的简单包装
public class HashSet<E>
{
......
private transient HashMap<E,Object> map;//HashSet里面有一个HashMap
// Dummy value to associate with an Object in the backing Map
private static final Object PRESENT = new Object();
public HashSet() {
map = new HashMap<>();
}
......
public boolean add(E e) {//简单的方法转换
return map.put(e, PRESENT)==null;
}
......
}
虚拟的 “Value”
既然 HashMap
需要一个 value
,而 HashSet
只需要存储一个元素,那 value
放什么呢?源码里定义了一个静态的、所有 HashSet
实例共享的虚拟对象 PRESENT
:
// 一个虚拟值,用来与map中的key关联
private static final Object PRESENT = new Object();
使用场景
- 记录访问过网站的独立IP地址。
- 对一组数据进行去重。
- 存储用户的唯一标签。