一文读懂HashMap

本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

原文链接:blog.ouyangsihai.cn >> 一文读懂HashMap

本文准备从以下几个方面去讲解HashMap:

1)HashMap源码详细分析

2)HashMap为什么是线程不安全的?

3)HashMap和HashTable的区别

4)1.7和1.8的HashMap实现区别总结

HashMap源码分析

一、构造函数

让我们先从构造函数说起,HashMap有四个构造方法,别慌

1.1 HashMap()

12345
// 1.无参构造方法、    // 构造一个空的HashMap,初始容量为16,负载因子为0.75    public HashMap() {        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted    }

// 1.无参构造方法、
// 构造一个空的HashMap,初始容量为16,负载因子为0.75
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

无参构造方法就没什么好说的了。

1.2 HashMap(int initialCapacity)

1234
// 2.构造一个初始容量为initialCapacity,负载因子为0.75的空的HashMap,    public HashMap(int initialCapacity) {        this(initialCapacity, DEFAULT_LOAD_FACTOR);    }

// 2.构造一个初始容量为initialCapacity,负载因子为0.75的空的HashMap,
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

HashMap(int initialCapacity) 这个构造方法调用了1.3中的构造方法。

1.3 HashMap(int initialCapacity, float loadFactor)

12345678910111213141516
// 3.构造一个空的初始容量为initialCapacity,负载因子为loadFactor的HashMap    public HashMap(int initialCapacity, float loadFactor) {        if (initialCapacity  0)            throw new IllegalArgumentException("Illegal initial capacity: " +                                               initialCapacity);        if (initialCapacity  MAXIMUM_CAPACITY)            initialCapacity = MAXIMUM_CAPACITY;        if (loadFactor = 0 || Float.isNaN(loadFactor))            throw new IllegalArgumentException("Illegal load factor: " +                                               loadFactor);        this.loadFactor = loadFactor;        this.threshold = tableSizeFor(initialCapacity);    }     //最大容量    //static final int MAXIMUM_CAPACITY = 1  30;

// 3.构造一个空的初始容量为initialCapacity,负载因子为loadFactor的HashMap
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity 0)
throw new IllegalArgumentException(“Illegal initial capacity: “ +
initialCapacity);
if (initialCapacity MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor = 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException(“Illegal load factor: “ +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}


//最大容量
//static final int MAXIMUM_CAPACITY = 1  30;

当指定的初始容量 0时抛出 IllegalArgumentException异常,当指定的初始容量 MAXIMUM_CAPACITY时,就让初始容量 = MAXIMUM_CAPACITY。当负载因子小于0或者不是数字时,抛出 IllegalArgumentException异常

设定 threshold。 这个threshold = capacity * load factor 。当HashMap的size到了threshold时,就要进行resize,也就是扩容。

tableSizeFor()的主要功能是返回一个比给定整数大且最接近的2的幂次方整数,如给定10,返回2的4次方16.

我们进入 tableSizeFor(int cap)的源码中看看:

12345678910
//Returns a power of two size for the given target capacity.    static final int tableSizeFor(int cap) {        int n = cap - 1;        n |= n  1;        n |= n  2;        n |= n  4;        n |= n  8;        n |= n  16;        return (n  0) ? 1 : (n = MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;    }

//Returns a power of two size for the given target capacity.
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n 1;
n |= n 2;
n |= n 4;
n |= n 8;
n |= n 16;
return (n 0) ? 1 : (n = MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

note: HashMap要求容量必须是2的幂。

首先, int n = cap -1是为了防止cap已经是2的幂时,执行完后面的几条无符号右移操作之后,返回的capacity是这个cap的2倍,因为cap已经是2的幂了,就已经满足条件了。 如果不懂可以往下看完几个无符号移位后再回来看。(建议自己在纸上画一下)

  • 如果n这时为0了(经过了cap-1之后),则经过后面的几次无符号右移依然是0,最后返回的capacity是1(最后有个n+1的操作)。这里只讨论n不等于0的情况。

以16位为例,假设开始时 n 为 0000 1xxx xxxx xxxx (x代表不关心0还是1)

  • 第一次右移 n |= n 1;由于n不等于0,则n的二进制表示中总会有一bit为1,这时考虑最高位的1。通过无符号右移1位,则将最高位的1右移了1位,再做或操作,使得n的二进制表示中与最高位的1紧邻的右边一位也为1,如0000 11xx xxxx xxxx 。
  • 第二次右移 n |= n 2;注意,这个n已经经过了 n |= n 1; 操作。此时n为0000 11xx xxxx xxxx ,则n无符号右移两位,会将最高位两个连续的1右移两位,然后再与原来的n做或操作,这样n的二进制表示的高位中会有4个连续的1。如0000 1111 xxxx xxxx 。
  • 第三次右移 n |= n 4;这次把已经有的高位中的连续的4个1,右移4位,再做或操作,这样n的二进制表示的高位中会有8个连续的1。如0000 1111 1111 xxxx 。

第。。。,你还忍心让我继续推么?相信聪明的你已经想出来了,容量最大也就是32位的正数,所以最后一次 n |= n 16; 可以保证最高位后面的全部置为1。当然如果是32个1的话,此时超出了 MAXIMUM_CAPACITY ,所以取值到 MAXIMUM_CAPACITY

https://blog.csdn.net/huzhigenlaohu/article/details/51802457这篇博客中找了张示例图:

注意,得到的这个capacity却被赋值给了threshold。 这里我和这篇博客的博主开始的想法一样,认为应该这么写: this.threshold = tableSizeFor(initialCapacity) * this.loadFactor; 因为这样子才符合threshold的定义:threshold = capacity * load factor 。但是,请注意,在构造方法中,并没有对table这个成员变量进行初始化,table的初始化被推迟到了put方法中,在put方法中会对threshold重新计算 。

我说一下我在理解这个tableSizeFor函数中间遇到的坑吧,我在想如果n=-1时的情况,因为初始容量可以传进来0。我将n= -1 和下面几条运算一起新写了个测试程序,发现输出都是 -1。 这是因为计算机中数字是由补码存储的,-1的补码是 0xffffffff。所以无符号右移之后再进行或运算之后还是 -1。 那我想如果就无符号右移呢? 比如-110。听我娓娓道来,32个1无符号右移10位后,高10位为0,低22位为1,此时这个数变成了正数,由于正数的补码和原码相同,所以就变成了0x3FFFFF即10进制的4194303。真刺激。

好开森,这个构造方法我们算是拿下了。怎么样,我猜你现在一定很激动,Hey,old Fe,这才刚开始。接下来看最后一个构造方法。

1.4 HashMap(Map? extends K, ? extends V m)

12345
// 4. 构造一个和指定Map有相同mappings的HashMap,初始容量能充足的容下指定的Map,负载因子为0.75    public HashMap(Map? extends K, ? extends V m) {        this.loadFactor = DEFAULT_LOAD_FACTOR;        putMapEntries(m, false);    }

// 4. 构造一个和指定Map有相同mappings的HashMap,初始容量能充足的容下指定的Map,负载因子为0.75
public HashMap(Map? extends K, ? extends V m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}

套路,直接看 putMapEntries(m,false) 。源码如下:

12345678910111213141516171819202122232425262728293031
/**     * 将m的所有元素存入本HashMap实例中     */    final void putMapEntries(Map? extends K, ? extends V m, boolean evict) {        //得到 m 中元素的个数        int s = m.size();        //当 m 中有元素时,则需将map中元素放入本HashMap实例。        if (s  0) {            // 判断table是否已经初始化,如果未初始化,则先初始化一些变量。(table初始化是在put时)            if (table == null) { // pre-size                // 根据待插入的map 的 size 计算要创建的 HashMap 的容量。                float ft = ((float)s / loadFactor) + 1.0F;                int t = ((ft  (float)MAXIMUM_CAPACITY) ?                         (int)ft : MAXIMUM_CAPACITY);                // 把要创建的 HashMap 的容量存在 threshold 中                if (t  threshold)                    threshold = tableSizeFor(t);            }            // 如果table初始化过,因为别的函数也会调用它,所以有可能HashMap已经被初始化过了。            // 判断待插入的 map 的 size,若 size 大于 threshold,则先进行 resize(),进行扩容            else if (s  threshold)                resize();            //然后就开始遍历 带插入的 map ,将每一个 Key ,Value 插入到本HashMap实例。            for (Map.Entry? extends K, ? extends V e : m.entrySet()) {                K key = e.getKey();                V value = e.getValue();                // put(K,V)也是调用 putVal 函数进行元素的插入                putVal(hash(key), key, value, false, evict);            }        }    }

/**
* 将m的所有元素存入本HashMap实例中
*/
final void putMapEntries(Map? extends K, ? extends V m, boolean evict) {
//得到 m 中元素的个数
int s = m.size();
//当 m 中有元素时,则需将map中元素放入本HashMap实例。
if (s 0) {
// 判断table是否已经初始化,如果未初始化,则先初始化一些变量。(table初始化是在put时)
if (table == null) { // pre-size
// 根据待插入的map 的 size 计算要创建的 HashMap 的容量。
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
// 把要创建的 HashMap 的容量存在 threshold 中
if (t threshold)
threshold = tableSizeFor(t);
}
// 如果table初始化过,因为别的函数也会调用它,所以有可能HashMap已经被初始化过了。
// 判断待插入的 map 的 size,若 size 大于 threshold,则先进行 resize(),进行扩容
else if (s threshold)
resize();
//然后就开始遍历 带插入的 map ,将每一个 Key ,Value 插入到本HashMap实例。
for (Map.Entry? extends K, ? extends V e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
// put(K,V)也是调用 putVal 函数进行元素的插入
putVal(hash(key), key, value, false, evict);
}
}
}

介绍putVal方法前,说一下HashMap的几个重要的成员变量:

1234567891011121314151617181920212223242526272829303132333435363738394041
/**     * The table, initialized on first use, and resized as     * necessary. When allocated, length is always a power of two.     * (We also tolerate length zero in some operations to allow     * bootstrapping mechanics that are currently not needed.)     */    //实际存储key,value的数组,只不过key,value被封装成Node了    transient NodeK,V[] table;     /**     * The number of key-value mappings contained in this map.     */    transient int size;     /**     * The number of times this HashMap has been structurally modified     * Structural modifications are those that change the number of mappings in     * the HashMap or otherwise modify its internal structure (e.g.,     * rehash).  This field is used to make iterators on Collection-views of     * the HashMap fail-fast.  (See ConcurrentModificationException).     */    transient int modCount;     /**     * The next size value at which to resize (capacity * load factor).     *     * @serial     */    // (The javadoc description is true upon serialization.    // Additionally, if the table array has not been allocated, this    // field holds the initial array capacity, or zero signifying    // DEFAULT_INITIAL_CAPACITY.)    //因为 tableSizeFor(int) 返回值给了threshold    int threshold;     /**     * The load factor for the hash table.     *     * @serial     */    final float loadFactor;

/**
* The table, initialized on first use, and resized as
* necessary. When allocated, length is always a power of two.
* (We also tolerate length zero in some operations to allow
* bootstrapping mechanics that are currently not needed.)
*/
//实际存储key,value的数组,只不过key,value被封装成Node了
transient NodeK,V[] table;


/**
 * The number of key-value mappings contained in this map.
 */
transient int size;

/**
 * The number of times this HashMap has been structurally modified
 * Structural modifications are those that change the number of mappings in
 * the HashMap or otherwise modify its internal structure (e.g.,
 * rehash).  This field is used to make iterators on Collection-views of
 * the HashMap fail-fast.  (See ConcurrentModificationException).
 */
transient int modCount;

/**
 * The next size value at which to resize (capacity * load factor).
 *
 * @serial
 */
// (The javadoc description is true upon serialization.
// Additionally, if the table array has not been allocated, this
// field holds the initial array capacity, or zero signifying
// DEFAULT_INITIAL_CAPACITY.)
//因为 tableSizeFor(int) 返回值给了threshold
int threshold;

/**
 * The load factor for the hash table.
 *
 * @serial
 */
final float loadFactor;

其实就是哈希表。HashMap使用链表法避免哈希冲突(相同hash值),当链表长度大于TREEIFY_THRESHOLD(默认为8)时,将链表转换为红黑树,当然小于UNTREEIFY_THRESHOLD(默认为6)时,又会转回链表以达到性能均衡。 我们看一张HashMap的数据结构(数组+链表+红黑树 )就更能理解table了:

再回到putMapEntries函数中,如果table为null,那么这时就设置合适的threshold,如果不为空并且指定的map的sizethreshold,那么就resize()。然后把指定的map的所有Key,Value,通过putVal添加到我们创建的新的map中。

putVal中传入了个hash(key),那我们就先来看看hash(key):

123456789
/**     * key 的 hash值的计算是通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h  16)     * 主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候     * 也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销     */    static final int hash(Object key) {        int h;        return (key == null) ? 0 : (h = key.hashCode()) ^ (h  16);    }

/**
* key 的 hash值的计算是通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h 16)
* 主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候
* 也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h 16);
}

异或运算:(h = key.hashCode()) ^ (h 16)

原 来 的 hashCode : 1111 1111 1111 1111 0100 1100 0000 1010

移位后的hashCode: 0000 0000 0000 0000 1111 1111 1111 1111

进行异或运算 结果:1111 1111 1111 1111 1011 0011 1111 0101

这样做的好处是,可以将hashcode高位和低位的值进行混合做异或运算,而且混合后,低位的信息中加入了高位的信息,这样高位的信息被变相的保留了下来。掺杂的元素多了,那么生成的hash值的随机性会增大。

刚才我们漏掉了resize()putVal() 两个函数,现在我们按顺序分析一波:

首先 resize() ,先看一下哪些函数调用了 resize(),从而在整体上有个概念:

接下来上源码:

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105
final NodeK,V[] resize() {        // 保存当前table        NodeK,V[] oldTab = table;        // 保存当前table的容量        int oldCap = (oldTab == null) ? 0 : oldTab.length;        // 保存当前阈值        int oldThr = threshold;        // 初始化新的table容量和阈值         int newCap, newThr = 0;        /*        1. resize()函数在size  threshold时被调用。oldCap大于 0 代表原来的 table 表非空,           oldCap 为原表的大小,oldThr(threshold) 为 oldCap × load_factor        */        if (oldCap  0) {            // 若旧table容量已超过最大容量,更新阈值为Integer.MAX_VALUE(最大整形值),这样以后就不会自动扩容了。            if (oldCap = MAXIMUM_CAPACITY) {                threshold = Integer.MAX_VALUE;                return oldTab;            }             // 容量翻倍,使用左移,效率更高            else if ((newCap = oldCap  1)  MAXIMUM_CAPACITY &&                     oldCap = DEFAULT_INITIAL_CAPACITY)                // 阈值翻倍                newThr = oldThr  1; // double threshold        }        /*        2. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 大于0,代表用户创建了一个 HashMap,但是使用的构造函数为                 HashMap(int initialCapacity, float loadFactor) 或 HashMap(int initialCapacity)           或 HashMap(Map? extends K, ? extends V m),导致 oldTab 为 null,oldCap 为0, oldThr 为用户指定的 HashMap的初始容量。      */        else if (oldThr  0) // initial capacity was placed in threshold            //当table没初始化时,threshold持有初始容量。还记得threshold = tableSizeFor(t)么;            newCap = oldThr;        /*        3. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 等于0,用户调用 HashMap()构造函数创建的 HashMap,所有值均采用默认值,oldTab(Table)表为空,oldCap为0,oldThr等于0,        */        else {               // zero initial threshold signifies using defaults            newCap = DEFAULT_INITIAL_CAPACITY;            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);        }        // 新阈值为0        if (newThr == 0) {            float ft = (float)newCap * loadFactor;            newThr = (newCap  MAXIMUM_CAPACITY && ft  (float)MAXIMUM_CAPACITY ?                      (int)ft : Integer.MAX_VALUE);        }        threshold = newThr;        @SuppressWarnings({"rawtypes","unchecked"})        // 初始化table        NodeK,V[] newTab = (NodeK,V[])new Node[newCap];        table = newTab;        if (oldTab != null) {            // 把 oldTab 中的节点 reHash 到 newTab 中去            for (int j = 0; j  oldCap; ++j) {                NodeK,V e;                if ((e = oldTab[j]) != null) {                    oldTab[j] = null;                    // 若节点是单个节点,直接在 newTab 中进行重定位                    if (e.next == null)                        newTab[e.hash & (newCap - 1)] = e;                    // 若节点是 TreeNode 节点,要进行 红黑树的 rehash 操作                    else if (e instanceof TreeNode)                        ((TreeNodeK,V)e).split(this, newTab, j, oldCap);                    // 若是链表,进行链表的 rehash 操作                    else { // preserve order                        NodeK,V loHead = null, loTail = null;                        NodeK,V hiHead = null, hiTail = null;                        NodeK,V next;                        // 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割(代码后有图解,可以回过头再来看),分成两个不同的链表,完成rehash                        do {                            next = e.next;                            // 根据算法 e.hash & oldCap 判断节点位置rehash 后是否发生改变                            //最高位==0,这是索引不变的链表。                            if ((e.hash & oldCap) == 0) {                                 if (loTail == null)                                    loHead = e;                                else                                    loTail.next = e;                                loTail = e;                            }                            //最高位==1 (这是索引发生改变的链表)                            else {                                  if (hiTail == null)                                    hiHead = e;                                else                                    hiTail.next = e;                                hiTail = e;                            }                        } while ((e = next) != null);                        if (loTail != null) {  // 原bucket位置的尾指针不为空(即还有node)                              loTail.next = null; // 链表最后得有个null                            newTab[j] = loHead; // 链表头指针放在新桶的相同下标(j)处                        }                        if (hiTail != null) {                            hiTail.next = null;                            // rehash 后节点新的位置一定为原来基础上加上 oldCap,具体解释看下图                            newTab[j + oldCap] = hiHead;                        }                    }                }            }        }        return newTab;    }}

final NodeK,V[] resize() {
// 保存当前table
NodeK,V[] oldTab = table;
// 保存当前table的容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 保存当前阈值
int oldThr = threshold;
// 初始化新的table容量和阈值
int newCap, newThr = 0;
/*
1. resize()函数在size  threshold时被调用。oldCap大于 0 代表原来的 table 表非空,
oldCap 为原表的大小,oldThr(threshold) 为 oldCap × load_factor
/
if (oldCap 0) {
// 若旧table容量已超过最大容量,更新阈值为Integer.MAX_VALUE(最大整形值),这样以后就不会自动扩容了。
if (oldCap = MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 容量翻倍,使用左移,效率更高
else if ((newCap = oldCap 1) MAXIMUM_CAPACITY &&
oldCap = DEFAULT_INITIAL_CAPACITY)
// 阈值翻倍
newThr = oldThr 1; // double threshold
}
/

2. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 大于0,代表用户创建了一个 HashMap,但是使用的构造函数为
HashMap(int initialCapacity, float loadFactor) 或 HashMap(int initialCapacity)
或 HashMap(Map? extends K, ? extends V m),导致 oldTab 为 null,oldCap 为0, oldThr 为用户指定的 HashMap的初始容量。
  /
else if (oldThr 0) // initial capacity was placed in threshold
//当table没初始化时,threshold持有初始容量。还记得threshold = tableSizeFor(t)么;
newCap = oldThr;
/

3. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 等于0,用户调用 HashMap()构造函数创建的 HashMap,所有值均采用默认值,oldTab(Table)表为空,oldCap为0,oldThr等于0,
*/
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 新阈值为0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap MAXIMUM_CAPACITY && ft (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({“rawtypes”,”unchecked”})
// 初始化table
NodeK,V[] newTab = (NodeK,V[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 把 oldTab 中的节点 reHash 到 newTab 中去
for (int j = 0; j oldCap; ++j) {
NodeK,V e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 若节点是单个节点,直接在 newTab 中进行重定位
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 若节点是 TreeNode 节点,要进行 红黑树的 rehash 操作
else if (e instanceof TreeNode)
((TreeNodeK,V)e).split(this, newTab, j, oldCap);
// 若是链表,进行链表的 rehash 操作
else { // preserve order
NodeK,V loHead = null, loTail = null;
NodeK,V hiHead = null, hiTail = null;
NodeK,V next;
// 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割(代码后有图解,可以回过头再来看),分成两个不同的链表,完成rehash
do {
next = e.next;
// 根据算法 e.hash & oldCap 判断节点位置rehash 后是否发生改变
//最高位==0,这是索引不变的链表。
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
//最高位==1 (这是索引发生改变的链表)
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) { // 原bucket位置的尾指针不为空(即还有node)
loTail.next = null; // 链表最后得有个null
newTab[j] = loHead; // 链表头指针放在新桶的相同下标(j)处
}
if (hiTail != null) {
hiTail.next = null;
// rehash 后节点新的位置一定为原来基础上加上 oldCap,具体解释看下图
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
}

引自美团点评技术博客。我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。

元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

因此,我们在扩充HashMap的时候,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图 :

什么时候扩容:通过HashMap源码可以看到是在put操作时,即向容器中添加元素时,判断当前容器中元素的个数是否达到阈值(当前数组长度乘以加载因子的值)的时候,就要自动扩容了。

扩容(resize):其实就是重新计算容量;而这个扩容是计算出所需容器的大小之后重新定义一个新的容器,将原来容器中的元素放入其中。

resize()告一段落,接下来看 putVal()

上源码:

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657
//实现put和相关方法。    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,                   boolean evict) {        NodeK,V[] tab; NodeK,V p; int n, i;        //如果table为空或者长度为0,则resize()        if ((tab = table) == null || (n = tab.length) == 0)            n = (tab = resize()).length;        //确定插入table的位置,算法是(n - 1) & hash,在n为2的幂时,相当于取摸操作。        ////找到key值对应的槽并且是第一个,直接加入        if ((p = tab[i = (n - 1) & hash]) == null)            tab[i] = newNode(hash, key, value, null);        //在table的i位置发生碰撞,有两种情况,1、key值是一样的,替换value值,        //2、key值不一样的有两种处理方式:2.1、存储在i位置的链表;2.2、存储在红黑树中        else {            NodeK,V e; K k;            //第一个node的hash值即为要加入元素的hash            if (p.hash == hash &&                ((k = p.key) == key || (key != null && key.equals(k))))                e = p;            //2.2            else if (p instanceof TreeNode)                e = ((TreeNodeK,V)p).putTreeVal(this, tab, hash, key, value);            //2.1            else {                //不是TreeNode,即为链表,遍历链表                for (int binCount = 0; ; ++binCount) {                ///链表的尾端也没有找到key值相同的节点,则生成一个新的Node,                //并且判断链表的节点个数是不是到达转换成红黑树的上界达到,则转换成红黑树。                    if ((e = p.next) == null) {                         // 创建链表节点并插入尾部                        p.next = newNode(hash, key, value, null);                        ////超过了链表的设置长度8就转换成红黑树                        if (binCount = TREEIFY_THRESHOLD - 1) // -1 for 1st                            treeifyBin(tab, hash);                        break;                    }                    if (e.hash == hash &&                        ((k = e.key) == key || (key != null && key.equals(k))))                        break;                    p = e;                }            }            //如果e不为空就替换旧的oldValue值            if (e != null) { // existing mapping for key                V oldValue = e.value;                if (!onlyIfAbsent || oldValue == null)                    e.value = value;                afterNodeAccess(e);                return oldValue;            }        }        ++modCount;        if (++size  threshold)            resize();        afterNodeInsertion(evict);        return null;    }

//实现put和相关方法。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
NodeK,V[] tab; NodeK,V p; int n, i;
//如果table为空或者长度为0,则resize()
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//确定插入table的位置,算法是(n - 1) & hash,在n为2的幂时,相当于取摸操作。
////找到key值对应的槽并且是第一个,直接加入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//在table的i位置发生碰撞,有两种情况,1、key值是一样的,替换value值,
//2、key值不一样的有两种处理方式:2.1、存储在i位置的链表;2.2、存储在红黑树中
else {
NodeK,V e; K k;
//第一个node的hash值即为要加入元素的hash
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//2.2
else if (p instanceof TreeNode)
e = ((TreeNodeK,V)p).putTreeVal(this, tab, hash, key, value);
//2.1
else {
//不是TreeNode,即为链表,遍历链表
for (int binCount = 0; ; ++binCount) {
///链表的尾端也没有找到key值相同的节点,则生成一个新的Node,
//并且判断链表的节点个数是不是到达转换成红黑树的上界达到,则转换成红黑树。
if ((e = p.next) == null) {
// 创建链表节点并插入尾部
p.next = newNode(hash, key, value, null);
////超过了链表的设置长度8就转换成红黑树
if (binCount = TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//如果e不为空就替换旧的oldValue值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size threshold)
resize();
afterNodeInsertion(evict);
return null;
}

相比put方法,get方法就比较简单,这里就不说了。

1.7和1.8的HashMap的不同点

(1)JDK1.7用的是头插法,而JDK1.8及之后使用的都是尾插法,那么为什么要这样做呢?因为JDK1.7是用单链表进行的纵向延伸,当采用头插法就是能够提高插入的效率,但是也会容易出现逆序且环形链表死循环问题。但是在JDK1.8之后是因为加入了红黑树使用尾插法,能够避免出现逆序且链表死循环的问题。

(2)扩容后数据存储位置的计算方式也不一样:

  1. 在JDK1.7的时候是直接用hash值和需要扩容的二进制数进行&(这里就是为什么扩容的时候为啥一定必须是2的多少次幂的原因所在,因为如果只有2的n次幂的情况时最后一位二进制数才一定是1,这样能最大程度减少hash碰撞)(hash值 & length-1) 。
  2. 而在JDK1.8的时候直接用了JDK1.7的时候计算的规律,也就是扩容前的原始位置+扩容的大小值=JDK1.8的计算方式,而不再是JDK1.7的那种异或的方法。但是这种方式就相当于只需要判断Hash值的新增参与运算的位是0还是1就直接迅速计算出了扩容后的储存方式。

(3)JDK1.7的时候使用的是数组+ 单链表的数据结构。但是在JDK1.8及之后时,使用的是数组+链表+红黑树的数据结构(当链表的深度达到8的时候,也就是默认阈值,就会自动扩容把链表转成红黑树的数据结构来把时间复杂度从O(N)变成O(logN)提高了效率)。

HashMap为什么是线程不安全的?

HashMap 在并发时可能出现的问题主要是两方面:

  • put的时候导致的多线程数据不一致

    比如有两个线程A和B,首先A希望插入一个key-value对到HashMap中,首先计算记录所要落到的 hash桶的索引坐标,然后获取到该桶里面的链表头结点,此时线程A的时间片用完了,而此时线程B被调度得以执行,和线程A一样执行,只不过线程B成功将记录插到了桶里面,假设线程A插入的记录计算出来的 hash桶索引和线程B要插入的记录计算出来的 hash桶索引是一样的,那么当线程B成功插入之后,线程A再次被调度运行时,它依然持有过期的链表头但是它对此一无所知,以至于它认为它应该这样做,如此一来就覆盖了线程B插入的记录,这样线程B插入的记录就凭空消失了,造成了数据不一致的行为。

  • resize而引起死循环

    这种情况发生在HashMap自动扩容时,当2个线程同时检测到元素个数超过 数组大小 × 负载因子。此时2个线程会在put()方法中调用了resize(),两个线程同时修改一个链表结构会产生一个循环链表(JDK1.7中,会出现resize前后元素顺序倒置的情况)。接下来再想通过get()获取某一个元素,就会出现死循环。

  • HashMap和HashTable的区别

    HashMap和Hashtable都实现了Map接口,但决定用哪一个之前先要弄清楚它们之间的分别。主要的区别有:线程安全性,同步(synchronization),以及速度。

    1. HashMap几乎可以等价于Hashtable,除了HashMap是非synchronized的,并可以接受null(HashMap可以接受为null的键值(key)和值(value),而Hashtable则不行)。
    2. HashMap是非synchronized,而Hashtable是synchronized,这意味着Hashtable是线程安全的,多个线程可以共享一个Hashtable;而如果没有正确的同步的话,多个线程是不能共享HashMap的。Java 5提供了ConcurrentHashMap,它是HashTable的替代,比HashTable的扩展性更好。
    3. 另一个区别是HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。所以当有其它线程改变了HashMap的结构(增加或者移除元素),将会抛出ConcurrentModificationException,但迭代器本身的remove()方法移除元素则不会抛出ConcurrentModificationException异常。但这并不是一个一定发生的行为,要看JVM。这条同样也是Enumeration和Iterator的区别。
    4. 由于Hashtable是线程安全的也是synchronized,所以在单线程环境下它比HashMap要慢。如果你不需要同步,只需要单一线程,那么使用HashMap性能要好过Hashtable。
    5. HashMap不能保证随着时间的推移Map中的元素次序是不变的。

    需要注意的重要术语

    1. sychronized意味着在一次仅有一个线程能够更改Hashtable。就是说任何线程要更新Hashtable时要首先获得同步锁,其它线程要等到同步锁被释放之后才能再次获得同步锁更新Hashtable。
    2. Fail-safe和iterator迭代器相关。如果某个集合对象创建了Iterator或者ListIterator,然后其它的线程试图“结构上”更改集合对象,将会抛出ConcurrentModificationException异常。但其它线程可以通过set()方法更改集合对象是允许的,因为这并没有从“结构上”更改集合。但是假如已经从结构上进行了更改,再调用set()方法,将会抛出IllegalArgumentException异常。
    3. 结构上的更改指的是删除或者插入一个元素,这样会影响到map的结构。

    HashMap可以通过下面的语句进行同步:

    Map m = Collections.synchronizeMap(hashMap);

    参考资料

    https://tech.meituan.com/java_hashmap.html

    本人花费半年的时间总结的《Java面试指南》已拿腾讯等大厂offer,已开源在github ,欢迎star!

    本文GitHub https://github.com/OUYANGSIHAI/JavaInterview 已收录,这是我花了6个月总结的一线大厂Java面试总结,本人已拿大厂offer,欢迎star

    原文链接:blog.ouyangsihai.cn >> 一文读懂HashMap


      转载请注明: 好好学java 一文读懂HashMap

     上一篇
    一张图看懂JVM(升级版) 一张图看懂JVM(升级版)
    在上一版文章发出后,作者收到了很多朋友的反馈,有反馈图片不清晰的,也有反馈说内存部分画的不是太细、缺少必要的文字描述,在这里小码农要向这些朋友表示抱歉,同时也向这些朋友表示感谢,正是因为有了你们的鞭策,小码农才有了持续学习的动力。所以,这
    下一篇 
    一次性搞清楚equals和hashCode 一次性搞清楚equals和hashCode
    作者:代码钢琴家 链接:https://www.cnblogs.com/lulipro 前言在程序设计中,有很多的“公约”,遵守约定去实现你的代码,会让你避开很多坑,这些公约是前人总结出来的设计规范。 Object类是Java中的万