HashMap源码

Java7 HashMap

# 概述

之所以把HashSetHashMap放在一起讲解,是因为二者在Java里有着相同的实现,前者仅仅是对后者做了一层包装,也就是说HashSet里面有一个HashMap(适配器模式)。因此本文将重点分析HashMap

HashMap实现了Map接口,即允许放入keynull的元素,也允许插入valuenull的元素;除该类未实现同步外,其余跟Hashtable大致相同;跟TreeMap不同,该容器不保证元素顺序,根据需要该容器可能会对元素重新哈希,元素的顺序也会被重新打散,因此不同时间迭代同一个HashMap的顺序可能会不同。 根据对冲突的处理方式不同,哈希表有两种实现方式,一种开放地址方式(Open addressing),另一种是冲突链表方式(Separate chaining with linked lists)。Java7 HashMap采用的是冲突链表方式

  • 缺点:在极端情况下,如果大量 Key 的哈希值相同(哈希碰撞),那么这个桶对应的链表会变得非常长。此时,对这个桶的查找操作时间复杂度会从 O(1) 退化为 O(n),性能急剧下降。

从上图容易看出,如果选择合适的哈希函数,put()get()方法可以在常数时间内完成。但在对HashMap进行迭代时,需要遍历整个table以及后面跟的冲突链表。因此对于迭代比较频繁的场景,不宜将HashMap的初始大小设的过大。

有两个参数可以影响HashMap的性能: 初始容量(inital capacity)和负载系数(load factor)。初始容量指定了初始table的大小,负载系数用来指定自动扩容的临界值。当entry的数量超过capacity*load_factor时,容器将自动扩容并重新哈希。对于插入元素较多的场景,将初始容量设大可以减少重新哈希的次数。

将对象放入到HashMapHashSet中时,有两个方法需要特别关心: hashCode()equals()hashCode()方法决定了对象会被放到哪个bucket里,当多个对象的哈希值冲突时,equals()方法决定了这些对象是否是“同一个对象”。所以,如果要将自定义的对象放入到HashMapHashSet中,需要**@Override** hashCode()equals()方法。

# get()

get(Object key)方法根据指定的key值返回对应的value,该方法调用了getEntry(Object key)得到相应的entry,然后返回entry.getValue()。因此getEntry()是算法的核心。 算法思想是首先通过hash()函数得到对应bucket的下标,然后依次遍历冲突链表,通过key.equals(k)方法来判断是否是要找的那个entry

上图中hash(k)&(table.length-1)等价于hash(k)%table.length,原因是HashMap要求table.length必须是2的指数,因此table.length-1就是二进制低位全是1,跟hash(k)相与会将哈希值的高位全抹掉,剩下的就是余数了。

//getEntry()方法
final Entry<K,V> getEntry(Object key) {
	......
	int hash = (key == null) ? 0 : hash(key);
    for (Entry<K,V> e = table[hash&(table.length-1)];//得到冲突链表
         e != null; e = e.next) {//依次遍历冲突链表中的每个entry
        Object k;
        //依据equals()方法判断是否相等
        if (e.hash == hash &&
            ((k = e.key) == key || (key != null && key.equals(k))))
            return e;
    }
    return null;
}

# put()

put(K key, V value)方法是将指定的key, value对添加到map里。该方法首先会对map做一次查找,看是否包含该元组,如果已经包含则直接返回,查找过程类似于getEntry()方法;如果没有找到,则会通过addEntry(int hash, K key, V value, int bucketIndex)方法插入新的entry,插入方式为头插法

//addEntry()
void addEntry(int hash, K key, V value, int bucketIndex) {
    if ((size >= threshold) && (null != table[bucketIndex])) {
        resize(2 * table.length);//自动扩容,并重新哈希
        hash = (null != key) ? hash(key) : 0;
        bucketIndex = hash & (table.length-1);//hash%table.length
    }
    //在冲突链表头部插入新的entry
    Entry<K,V> e = table[bucketIndex];
    table[bucketIndex] = new Entry<>(hash, key, value, e);
    size++;
}

# remove()

remove(Object key)的作用是删除key值对应的entry,该方法的具体逻辑是在removeEntryForKey(Object key)里实现的。removeEntryForKey()方法会首先找到key值对应的entry,然后删除该entry(修改链表的相应引用)。查找过程跟getEntry()过程类似。

//removeEntryForKey()
final Entry<K,V> removeEntryForKey(Object key) {
	......
	int hash = (key == null) ? 0 : hash(key);
    int i = indexFor(hash, table.length);//hash&(table.length-1)
    Entry<K,V> prev = table[i];//得到冲突链表
    Entry<K,V> e = prev;
    while (e != null) {//遍历冲突链表
        Entry<K,V> next = e.next;
        Object k;
        if (e.hash == hash &&
            ((k = e.key) == key || (key != null && key.equals(k)))) {//找到要删除的entry
            modCount++; size--;
            if (prev == e) table[i] = next;//删除的是冲突链表的第一个entry
            else prev.next = next;
            return e;
        }
        prev = e; e = next;
    }
    return e;
}

# Java8 HashMap

Java8 对 HashMap 进行了一些修改,最大的不同就是利用了红黑树,所以其由 数组+链表+红黑树 组成。

根据 Java7 HashMap 的介绍,我们知道,查找的时候,根据 hash 值我们能够快速定位到数组的具体下标,但是之后的话,需要顺着链表一个个比较下去才能找到我们需要的,时间复杂度取决于链表的长度,为 O(n)

为了降低这部分的开销,在 Java8 中,当链表中的元素达到了 8 个时, 并且数组的总容量大于等于 64 ,会将链表转换为红黑树,在这些位置进行查找的时候可以降低时间复杂度为 O(logN)。

  • 优点:红黑树是一种自平衡的二叉查找树,其查找、插入、删除的时间复杂度稳定在 O(log n)。这使得 HashMap 在最坏情况下的性能也得到了保障,从 O(n) 提升到了 O(log n)。

来一张图简单示意一下吧:

注意,上图是示意图,主要是描述结构,不会达到这个状态的,因为这么多数据的时候早就扩容了。

Java7 中使用 Entry 来代表每个 HashMap 中的数据节点,Java8 中使用 Node,基本没有区别,都是 key,value,hash 和 next 这四个属性,不过,Node 只能用于链表的情况,红黑树的情况需要使用 TreeNode。

我们根据数组元素中,第一个节点数据类型是 Node 还是 TreeNode 来判断该位置下是链表还是红黑树的。

核心结构与关键字段

// java.util.HashMap

// 存储桶的数组,大小总是2的幂次方。
transient Node<K,V>[] table;

// 缓存的entrySet。
transient Set<Map.Entry<K,V>> entrySet;

// Map中键值对的数量。
transient int size;

// 结构性修改的次数,用于实现Fail-Fast。
transient int modCount;

// 下一次需要扩容的阈值 (threshold = capacity * loadFactor)。
int threshold;

// 负载因子,决定了HashMap的填充比。
final float loadFactor;
  • static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16:默认初始容量为 16。
  • static final float DEFAULT_LOAD_FACTOR = 0.75f;:默认负载因子为 0.75。
  • static final int TREEIFY_THRESHOLD = 8;:链表树化的阈值。当一个桶中链表长度达到 8 时,可能触发树化。
  • static final int UNTREEIFY_THRESHOLD = 6;:树退化为链表的阈值。当扩容时,如果树中节点数小于 6,会退化回链表。

内部节点类 NodeTreeNode

Node<K,V>:链表节点,是 HashMap 的基本存储单元。

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    V value;
    Node<K,V> next;
    // ... 构造函数和方法
}
  • TreeNode<K,V>:红黑树节点,继承自 Node,拥有额外的红黑树相关属性(如 parent, left, right, red)。

哈希函数:hash(Object key)

这是 HashMap 的“灵魂”之一,它负责将任意 Key 的 hashCode() 转换成一个更适合在 HashMap 中使用的哈希值。

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

这个操作看起来简单,但非常关键:

  1. 获取 keyhashCode(),这是一个32位的 inth
  2. h 右移 16 位,得到其高 16 位。
  3. 将原始的 h 与右移后的 h 进行异或(XOR)运算

为什么这么做? 这是为了让哈希值的高位也能参与到后续的索引计算中,从而让哈希值分布得更均匀,减少碰撞。因为后续计算数组索引只用了哈希值的低位(hash & (n-1)),如果不进行这个“高位扰动”,一旦 hashCode() 的实现不佳(例如高位变化大,低位变化小),就很容易产生碰撞。

# put 过程分析 重要!333

拆解 putVal 的执行流程:

  1. 计算索引
    • 如果 table 为空或长度为 0,调用 resize() 方法进行初始化。
    • 计算 Key 应该存放在哪个桶中:i = (n - 1) & hash。其中 n 是数组长度,hash 是经过扰动函数计算后的哈希值。因为 n 总是 2 的幂,所以 (n-1) 的二进制表示是全 1 的,这行代码等价于 hash % n,但位运算效率更高。
  1. 处理桶中情况
    • Case 1: 桶为空。直接创建一个新的 Node 放入该桶 table[i] = newNode(...)
    • Case 2: 桶不为空
      • a. 首节点匹配:检查桶中的第一个节点 p,如果 p 的哈希值和 key 都与要插入的 key 相同,则说明是更新操作。记录旧值,用新值覆盖,然后返回旧值。
      • b. 树节点:如果 p 是一个 TreeNode,说明这个桶已经是红黑树结构。调用 p.putTreeVal(...) 方法将新键值对插入到树中。
      • c. 链表:如果 p 是链表头节点,则遍历整个链表。
        • 在遍历过程中,如果找到一个节点的 key 与要插入的 key 相同,则执行更新操作,同 a。
        • 如果遍历到链表末尾仍未找到相同的 key,则在链表尾部创建一个新 Node 并链接上去。
        • 插入后检查:链接上新节点后,检查该链表的长度是否达到 TREEIFY_THRESHOLD - 1(因为是从0开始计数,所以是7)。如果达到,则调用 treeifyBin(...) 方法将此链表转换为红黑树。
  1. 更新计数并检查扩容
    • 如果成功插入了一个新节点(而不是更新),size 加一。
    • 检查 size 是否超过了扩容阈值 threshold。如果超过,则调用 resize() 方法。
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

// 第四个参数 onlyIfAbsent 如果是 true,那么只有在不存在该 key 时才会进行 put 操作
// 第五个参数 evict 我们这里不关心
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // 第一次 put 值的时候,会触发下面的 resize(),类似 java7 的第一次 put 也要初始化数组长度
    // 第一次 resize 和后续的扩容有些不一样,因为这次是数组从 null 初始化到默认的 16 或自定义的初始容量
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 找到具体的数组下标,如果此位置没有值,那么直接初始化一下 Node 并放置在这个位置就可以了
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);

    else {// 数组该位置有数据
        Node<K,V> e; K k;
        // 首先,判断该位置的第一个数据和我们要插入的数据,key 是不是"相等",如果是,取出这个节点
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 如果该节点是代表红黑树的节点,调用红黑树的插值方法,本文不展开说红黑树
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            // 到这里,说明数组该位置上是一个链表
            for (int binCount = 0; ; ++binCount) {
                // 插入到链表的最后面(Java7 是插入到链表的最前面)
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    // TREEIFY_THRESHOLD 为 8,所以,如果新插入的值是链表中的第 8 个
                    // 会触发下面的 treeifyBin,也就是将链表转换为红黑树
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                // 如果在该链表中找到了"相等"的 key(== 或 equals)
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    // 此时 break,那么 e 为链表中[与要插入的新值的 key "相等"]的 node
                    break;
                p = e;
            }
        }
        // e!=null 说明存在旧值的key与要插入的key"相等"
        // 对于我们分析的put操作,下面这个 if 其实就是进行 "值覆盖",然后返回旧值
        if (e != null) {
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 如果 HashMap 由于新插入这个值导致 size 已经超过了阈值,需要进行扩容
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

和 Java7 稍微有点不一样的地方就是,Java7 是先扩容后插入新值的,Java8 先插值再扩容,不过这个不重要。

# 数组扩容

resize() 方法用于初始化数组或数组扩容,每次扩容后,容量为原来的 2 倍,并进行数据迁移。

扩容是一个重新分配和迁移数据的过程:

  1. 创建新数组:创建一个容量是原容量两倍的新数组 newTab
  2. 更新阈值:计算新的扩容阈值 newThreshold
  3. 数据迁移:遍历旧数组 oldTab 的每一个桶。
    • 如果桶为空,则跳过。
    • 如果桶不为空,将其中的所有节点重新分配到 newTab 中。这里的迁移过程在 JDK 1.8 中非常巧妙:
      • 一个桶中的链表(或树)中的所有节点,在扩容后只可能去往两个位置:原索引位置原索引 + 旧容量的位置。
      • 这个决定因素是节点的 hash 值与 oldCapacity 进行 & 运算的结果。因为 oldCapacity 是 2 的幂,其二进制只有一个 1。这个 & 操作实际上是在检查 hash 值中新增的那个二进制位是 0 还是 1。
      • 因此,源码中可以一次性遍历旧链表,将其拆分成两个子链表(一个lo链表,一个hi链表),然后将这两个子链表分别放入新数组的对应位置。这避免了对每个节点都重新计算一次哈希索引,效率很高。
final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) { // 对应数组扩容
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 将数组大小扩大一倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            // 将阈值扩大一倍
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // 对应使用 new HashMap(int initialCapacity) 初始化后,第一次 put 的时候
        newCap = oldThr;
    else {// 对应使用 new HashMap() 初始化后,第一次 put 的时候
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }

    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;

    // 用新的数组大小初始化新的数组
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab; // 如果是初始化数组,到这里就结束了,返回 newTab 即可

    if (oldTab != null) {
        // 开始遍历原数组,进行数据迁移。
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                // 如果该数组位置上只有单个元素,那就简单了,简单迁移这个元素就可以了
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                // 如果是红黑树,具体我们就不展开了
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { 
                    // 这块是处理链表的情况,
                    // 需要将此链表拆成两个链表,放到新的数组中,并且保留原来的先后顺序
                    // loHead、loTail 对应一条链表,hiHead、hiTail 对应另一条链表,代码还是比较简单的
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        // 第一条链表
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        // 第二条链表的新的位置是 j + oldCap,这个很好理解
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

# get 过程分析

相对于 put 来说,get 真的太简单了。

  • 计算 key 的 hash 值,根据 hash 值找到对应数组下标: hash & (length-1)
  • 判断数组该位置处的元素是否刚好就是我们要找的,如果不是,走第三步
  • 判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据,如果不是,走第四步
  • 遍历链表,直到找到相等(==或equals)的 key
public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 判断第一个节点是不是就是需要的
        if (first.hash == hash && // always check first node
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        if ((e = first.next) != null) {
            // 判断是否是红黑树
            if (first instanceof TreeNode)
                return ((TreeNode<K,V>)first).getTreeNode(hash, key);

            // 链表遍历
            do {
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    return null;
}

关键设计要点

为什么容量总是 2 的幂次方?

  1. 高效的索引计算:使用 hash & (capacity - 1) 来代替 hash % capacity。位运算 (&) 比取模运算 (%) 快得多。
  2. 均匀的 rehash 分布:在扩容时,保证了旧桶中的元素能均匀地分散到新桶的两个可能位置中,减少了数据迁移后的哈希碰撞。

HashMap 内部会通过算法将用户指定的初始容量调整为最接近它的 2 的幂次方。

loadFactor (负载因子) 的作用

  • 负载因子(默认0.75)是一个权衡时间空间的参数。
  • 较高的负载因子(如 0.9):可以减少 HashMap 所占用的内存空间,但会增加哈希碰撞的概率,导致链表/树变长,从而增加查找时间。
  • 较低的负载因子(如 0.6):会使 HashMap 更频繁地扩容,占用更多内存,但能有效减少碰撞,保证 O(1) 的平均查找时间。
  • 0.75 是一个在时间和空间上都比较理想的折中值。

线程安全性

HashMap非线程安全的。在多线程环境下并发地对 HashMap 进行 put 操作:

  • 在 JDK 1.7 中可能导致链表形成环形结构,在下一次 get 时会造成死循环。
  • 在 JDK 1.8 中虽然不会产生环形链表,但仍然可能导致数据覆盖、size 计数不准确等问题。

线程安全的替代方案

  • Hashtable: 古老的线程安全类,通过对几乎所有方法加 synchronized 锁实现,性能极差,不推荐使用。
  • Collections.synchronizedMap(new HashMap<>()): 使用装饰器模式,同样是对整个 Map 对象加锁,并发性能不佳。
  • ConcurrentHashMap: 推荐的并发替代方案。它在 JDK 1.8 中采用了 CAS + synchronized 的分段锁思想,在保证线程安全的同时,提供了极高的并发性能。

# HashSet

前面已经说过HashSet是对HashMap的简单包装,对HashSet的函数调用都会转换成合适的HashMap方法, 只利用了 HashMapkey 必须唯一的特性来存储元素,而完全忽略了 value 的部分。

//HashSet是对HashMap的简单包装
public class HashSet<E>
{
	......
	private transient HashMap<E,Object> map;//HashSet里面有一个HashMap
    // Dummy value to associate with an Object in the backing Map
    private static final Object PRESENT = new Object();
    public HashSet() {
        map = new HashMap<>();
    }
    ......
    public boolean add(E e) {//简单的方法转换
        return map.put(e, PRESENT)==null;
    }
    ......
}

虚拟的 “Value”

既然 HashMap 需要一个 value,而 HashSet 只需要存储一个元素,那 value 放什么呢?源码里定义了一个静态的、所有 HashSet 实例共享的虚拟对象 PRESENT

// 一个虚拟值,用来与map中的key关联
private static final Object PRESENT = new Object();

使用场景

  • 记录访问过网站的独立IP地址。
  • 对一组数据进行去重。
  • 存储用户的唯一标签。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部