深入扒 HashMap 源码 - 3 HashMap resize() 扩容时都发生了什么?

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/ocp114/article/details/82890400

先看一组数据,里面是各个参数就不解释了,不明白的可以看看这里,HashMap 的初始化参数全部是默认的

resize()之前 [capacity = 16, size = 0, modCount = 0, threshold = 0, loadFactor = 0.75]
resize()之后 [capacity = 16, size = 0, modCount = 0, threshold = 12, loadFactor = 0.75]


resize()之前 [capacity = 16, size = 13, modCount = 13, threshold = 12, loadFactor = 0.75]
resize()之后 [capacity = 32, size = 13, modCount = 13, threshold = 24, loadFactor = 0.75]


resize()之前 [capacity = 32, size = 25, modCount = 25, threshold = 24, loadFactor = 0.75]
resize()之后 [capacity = 64, size = 25, modCount = 25, threshold = 48, loadFactor = 0.75]


resize()之前 [capacity = 64, size = 49, modCount = 49, threshold = 48, loadFactor = 0.75]
resize()之后 [capacity = 128, size = 49, modCount = 49, threshold = 96, loadFactor = 0.75]


resize()之前 [capacity = 128, size = 97, modCount = 97, threshold = 96, loadFactor = 0.75]
resize()之后 [capacity = 256, size = 97, modCount = 97, threshold = 192, loadFactor = 0.75]

下面是操作代码:

public static void main(String[] args) {
    HashMap<Integer, Object> map = new HashMap<>();
    for (int i = 0; i < 11111111; i++) {
        map.put(i, i);
    }
}

从上面 HashMap 每次扩容前后的参数变化中可以看到:

  1. HashMap 初始化后,第一次 put 数据时会扩容一次,这里的第一第二行其实不是 HashMap 的真实容量,因为还没初始化,看到的是 DEFAULT_INITIAL_CAPACITY 的值
  2. 对比第三第四行,扩容后容量翻倍了,threshold 的值也是翻倍了,也等于 capacity * loadFactor
  3. 扩容前后 size 不变,这个肯定不变了,是当前 HashMap 的元素个数扩容前后 size 不变,这个肯定不变了,是当前 HashMap 的元素个数
  4. modCount 是操作次数,resize() 前会自增 1,和 size 的值一样,也就是说先把数据加到 HashMap 中才进行扩容的

下面再来看看 resize() 方法做了什么

final Node<K,V>[] resize() {
	// 创建了一个临时变量 oldTab 来保存旧数据
    Node<K,V>[] oldTab = table;
    // 获取旧的 table 总容量,不是元素个数哦
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    // 临时保存扩容阈值
    int oldThr = threshold;
    // 创建 table 新容量和新扩容阈值的变量
    int newCap, newThr = 0;
    // 主要是用来判断是不是第一次扩容
    if (oldCap > 0) {
    	// 如果元素个数已经到达默认总容量,则扩容阈值也调到 int 的最大值,20亿左右
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 不然的话,容量翻倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
        	// 如果翻倍后新容量没有超过默认最大容量,原来的容量也超过了默认最小容量,扩容阈值也会翻倍
            newThr = oldThr << 1; // double threshold
    }
    // 在指定容量和装载因子在初始化空 HashMap 的情况下次才会执行下面这行
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    // 这里就是一切默认的情况下得出第一次扩容是的容量和扩容阈值了
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    // 当扩容后容量比默认的初始化容量还小,或者超过默认最大的容量的时候才会执行下面的代码
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    // 得出新的扩容阈值
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    // 根据新容量创建新的 table
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    // table 赋空
    table = newTab;
    // 如果有旧数据的话就做数据转移
    if (oldTab != null) {
    	// 这里为啥遍历的次数是 oldCap 而不是 size 呢?因为在 table 中的 Node<K,V>[] 中,
    	// 由于是根据 hash 值来找到对应的第一个桶来存储元素,中间有些桶可能是 null
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            // 看吧,这里就是,如果当前的桶如果为 null 的话就不做操作了 
            if ((e = oldTab[j]) != null) {
            	// 释放元素内存,等待 gc
                oldTab[j] = null;
                if (e.next == null)
                	// 如果是桶里面只有一个元素,HashMap 也就完完全全是一个数组了,直接赋值转移元素到新计算的索引中
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                	// 如果是已经树化的 HashMap 就会重新生成一棵树,或者会退化成链表
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                	// 这里是对链表重新排列优化
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    // 这里其实是一个 reHash 的过程,桶中的元素拆开
                    do {
                        next = e.next;
                        // 用(e.hash & oldCap)是否为 0 判断,对桶中的元素进行分割,分成两个不同的链表
                        if ((e.hash & oldCap) == 0) {
                        	// 判断是不是链头元素,然后就一个一个追加上去
                            if (loTail == null)
                                loHead = e; 
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                        	// 判断是不是链头元素,然后就一个一个追加上去
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    // 把上面分割的两个链表分别放到新 table 中的 j 和 ( j + oldCap) 位置中
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }

好了,没了,就这样,更加深入的话就需要将树化和退化成的方法了↖(^ω^)↗

猜你喜欢

转载自blog.csdn.net/ocp114/article/details/82890400