你的位置:首页 > 软件开发 > Java > HashMap源码阅读

HashMap源码阅读

发布时间:2017-11-15 16:00:31
HashMap是Map家族中使用频度最高的一个,下文主要结合源码来讲解HashMap的工作原理。1. 数据结构HashMap的数据结构主要由数组+链表+红黑树(JDK1.8后新增)组成,如下图所示:左侧数组是哈希表,数组的每个元素都是一个单链表的头节点,当不同的key映射到数 ...

HashMap源码阅读

HashMap是Map家族中使用频度最高的一个,下文主要结合源码来讲解HashMap的工作原理。

1. 数据结构

HashMap的数据结构主要由数组+链表+红黑树(JDK1.8后新增)组成,如下图所示:

左侧数组是哈希表,数组的每个元素都是一个单链表的头节点,当不同的key映射到数组的同一位置,就将其放入单链表中来解决key的hash值的冲突。

当链表的长度>8时,JDK1.8做了数据结构的优化,会将链表转化为红黑树,利用红黑树快速增删改查的特点提升HashMap的性能,查询效率链表O(N),红黑树是O(lgN)。

HashMap源码阅读

哈希表中当key的哈希值冲突时,可采用 开放地址法 和 链地址法 来解决。Java中的HashMap使用了链地址法:在每个数组元素后都有一个链表,对key通过Hash算法定位到数组下标,将键值对数据放在对应下标元素的链表上。

先了解下HaspMap的几个字段:

/* ---------------- Fields -------------- */ /** * The table, initialized on first use, and resized as * necessary. When allocated, length is always a power of two. * (We also tolerate length zero in some operations to allow * bootstrapping mechanics that are currently not needed.) */transient Node<K,V>[] table; /** * Holds cached entrySet(). Note that AbstractMap fields are used * for keySet() and values(). */transient Set<Map.Entry<K,V>> entrySet; /** * The number of key-value mappings contained in this map. */transient int size; /** * The number of times this HashMap has been structurally modified * Structural modifications are those that change the number of mappings in * the HashMap or otherwise modify its internal structure (e.g., * rehash). This field is used to make iterators on Collection-views of * the HashMap fail-fast. (See ConcurrentModificationException). */transient int modCount; /** * The next size value at which to resize (capacity * load factor). */int threshold;  /** * The load factor for the hash table. */final float loadFactor; 
  • size:HashMap中实际存在的 Node(key-value对)数量。
  • modCount:记录HashMap内部结构发生变化的次数,主要用于迭代器的Fail-Fast(迭代快速失败)。当 put 新的 key-value 键值对时,如果新增了Node节点,属于结构变化,而某个key对应的value被覆盖则不属于结构变化。
  • threshold:threshold = capacity * loadFactor,允许数组容纳的最多元素数量,如果超过这个数目就重新resize(扩容),扩容后HashMap的容量是之前的两倍。负载因子越大,所能容纳的键值对个数越多。
  • loadFactor:负载因子,默认是0.75。是对空间和时间效率的一个平衡选择,建议不要修改。
  • Node[] table:是 HashMap 的哈希桶数组,是一个 HashMap 类中的非常重要的字段。

HashMap默认的初始容量是 16,负载因子是 loadFactor=0.75,也就是说:使用HashMap默认构造函数新建了一个HashMap对象,数组最多容纳元素个数 threshold = 16 * 0.75 = 12。当增加数据时,size 和 modCount 会随着增加,数据实际容量超过12时,HashMap就会进行扩容。

Node的源码如下:

static class Node<K,V> implements Map.Entry<K,V> { final int hash;  // 用来定位数组索引位置 final K key; V value; Node<K,V> next;  // 链表的下一个node  Node(int hash, K key, V value, Node<K,V> next) {  this.hash = hash;  this.key = key;  this.value = value;  this.next = next; }  public final K getKey()  { return key; } public final V getValue()  { return value; } public final String toString() { return key + "=" + value; }  public final int hashCode() {  return Objects.hashCode(key) ^ Objects.hashCode(value); }  public final V setValue(V newValue) {  V oldValue = value;  value = newValue;  return oldValue; }  public final boolean equals(Object o) {  if (o == this)   return true;  if (o instanceof Map.Entry) {   Map.Entry<?,?> e = (Map.Entry<?,?>)o;   if (Objects.equals(key, e.getKey()) &&    Objects.equals(value, e.getValue()))    return true;  }  return false; }}

Node 是 HashMap 的一个内部类,实现了 Map.Entry 接口,存储着键值对。上图中的每一个黑色节点就是一个 Node 对象。

2. Hash算法

在查找、增加、删除 key-value 键值对时,都需要先在HashMap中定位哈希桶数组的索引位置。有时两个key的下标会一样,此时就发生了Hash碰撞,当Hash算法计算结果越分散均匀,Hash碰撞的概率就越小,map的存取效率就越高。

定位数组索引位置的源码实现如下:

static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);} // jdk1.7的源码static int indexFor(int h, int length) {  return h & (length-1);} //jdk1.8没有 indexFor() 方法,但实现原理一样的,定位数组索引下标一般按如下方式:tab[(n - 1) & hash]/** * Implements Map.get and related methods * * @param hash hash for key * @param key the key * @return the node, or null if none */final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 &&  (first = tab[(n - 1) & hash]) != null) {  ... }}

Hash算法本质上分三步:

  • 取key的hashCode值:h = key.hashCode()
  • 高位运算:h ^ (h >>> 16)
  • 取模运算:table[(table.length - 1) & hash]

hash值通过hashCode()的高16位异或低16位来计算,可以在tabl.length比较小时,能将高低bit都参与到Hash计算中。

在HashMap中,哈希桶数组table的长度length大小必须为2的n次方,这样设计,主要是为了在取模和扩容时做优化。如果将hash值直接对数组长度进行取模运算,这样元素分布也比较均匀,但是模运算的消耗是比较大的。当length总是2的n次方时,(table.length - 1) & hash = hash % length,如此来计算元素在table数组的索引处,& 比 % 具有更好的效率。

举例如下:

 HashMap源码阅读

3. put方法

HashMap的put方法源码如下:

public V put(K key, V value) { // 对key求hash值 return putVal(hash(key), key, value, false, true);} /** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */final V putVal(int hash, K key, V value, boolean onlyIfAbsent,    boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // table为空,则resize()进行扩容新建 if ((tab = table) == null || (n = tab.length) == 0)  n = (tab = resize()).length; // 计算key在table中的index索引下标,如果Node为null,则table[index]中新建Node节点 if ((p = tab[i = (n - 1) & hash]) == null)  tab[i] = newNode(hash, key, value, null); else {  Node<K,V> e; K k;  // table[index]的首个节点key存在,则覆盖value  if (p.hash == hash &&   ((k = p.key) == key || (key != null && key.equals(k))))   e = p;  // 判断table[index]是否为红黑树,如果是,则直接在树中插入key-value  else if (p instanceof TreeNode)   e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);  // table[index]为链表,遍历链表。  else {   for (int binCount = 0; ; ++binCount) {    if ((e = p.next) == null) {     p.next = newNode(hash, key, value, null);     // 若链表长度 > 8,则将链表转化为红黑树,在红黑树中进行插入     if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st      treeifyBin(tab, hash);     break;    }    // key已经存在,则直接覆盖value    if (e.hash == hash &&     ((k = e.key) == key || (key != null && key.equals(k))))     break;    p = e;   }  }  if (e != null) { // existing mapping for key   V oldValue = e.value;   if (!onlyIfAbsent || oldValue == null)    e.value = value;   afterNodeAccess(e);   return oldValue;  } } ++modCount; // 插入Node成功后,判断实际存在的key-value对是否大于最大容量threshold,如果超过,则进行扩容resize() if (++size > threshold)  resize(); afterNodeInsertion(evict); return null;}

4. 扩容

扩容(resize)就是重新计算容量。向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,就需要扩大数组的长度,以便能装入更多的元素。方法是使用一个新的数组代替已有的容量小的数组。

resize() 扩容时,会新建一个更大的Entry数组,将原来Entry数组中的元素通过transfer()方法转移到新数组上。通过遍历数组+链表的方式来遍历旧Entry数组中的每个元素,通过上文提到的 indexFor()方法确定在新Entry数组中的下标位置,然后使用链表头插法插入到新Entry数组中。扩容会带来一系列的运算,新建数组,对原有元素重新hash,这是很耗费资源的。

JDK1.7 resize的源码如下:

void resize(int newCapacity) { // newCapacity为新的数组长度 // 获取扩容前旧的Entry数组和数组长度 Entry[] oldTable = table;  int oldCapacity = oldTable.length;  // 扩容前的数组长度已经达到最大值了(2^30)  if (oldCapacity == MAXIMUM_CAPACITY) {  threshold = Integer.MAX_VALUE; // 修改最大容量阈值为int的最大值(2^31-1),这样以后就不会扩容了  return; }  Entry[] newTable = new Entry[newCapacity]; // 初始化一个新的Entry数组 transfer(newTable);       // 将数据转移到新的Entry数组里 table = newTable;       // HashMap的table属性引用新的Entry数组 threshold = (int)(newCapacity * loadFactor); // 修改阈值} void transfer(Entry[] newTable) {  Entry[] src = table;     // src引用了旧的Entry数组  int newCapacity = newTable.length;  for (int j = 0; j < src.length; j++) {   Entry<K,V> e = src[j];    // 遍历取得旧Entry数组的每个元素   if (e != null) {    src[j] = null;     // 释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)    do {     Entry<K,V> next = e.next;     int i = indexFor(e.hash, newCapacity); // 重新计算每个元素在数组中的下标位置     e.next = newTable[i]; // 使用单链表的头插方式,将旧Entry数组中元素添加到新Entry数组中     newTable[i] = e;      e = next;    // 访问下一个Entry链上的元素    } while (e != null);   }  }}

JDK1.8 resize的源码如下:

final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) {  // 容量超过最大值就不再扩充了  if (oldCap >= MAXIMUM_CAPACITY) {   threshold = Integer.MAX_VALUE;   return oldTab;  }  // 容量没有超过最大值,就扩充为原来的2倍  else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&     oldCap >= DEFAULT_INITIAL_CAPACITY)   newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold  newCap = oldThr; else {    // zero initial threshold signifies using defaults  newCap = DEFAULT_INITIAL_CAPACITY;  newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 计算新的resize容量上限 if (newThr == 0) {  float ft = (float)newCap * loadFactor;  newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?     (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"})  Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) {  // 把每个bucket都移动到新的bucket中  for (int j = 0; j < oldCap; ++j) {   Node<K,V> e;   if ((e = oldTab[j]) != null) {    oldTab[j] = null;    if (e.next == null)     newTab[e.hash & (newCap - 1)] = e;    else if (e instanceof TreeNode)     ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);    else { // 链表优化重hash     Node<K,V> loHead = null, loTail = null;     Node<K,V> hiHead = null, hiTail = null;     Node<K,V> next;     do {      next = e.next;      // 原索引      if ((e.hash & oldCap) == 0) {       if (loTail == null)        loHead = e;       else        loTail.next = e;       loTail = e;      }      // 原索引+oldCap      else {       if (hiTail == null)        hiHead = e;       else        hiTail.next = e;       hiTail = e;      }     } while ((e = next) != null);     // 原索引放到bucket中     if (loTail != null) {      loTail.next = null;      newTab[j] = loHead;     }     // 原索引+oldCap放到bucket中     if (hiTail != null) {      hiTail.next = null;      newTab[j + oldCap] = hiHead;     }    }   }  } } return newTab;}

HashMap长度扩展为原来的2倍,这样使得元素的位置要不在原位置,要不在移动2次幂的位置。

旧table数组的长度为n,元素原来的位置为(n - 1) & hash,扩容后数组长度为原来的2倍,则元素的新位置为 (n * 2 - 1) & hash。举个例子,原来table数组长度 n=16,图a 表示key1和key2确定索引的位置,图 b表示扩容后 key1和key2确定索引的位置,hash1和hash2分别为key1和key2通过Hash算法求得的hash值。如下图所示:

HashMap源码阅读

key1的原位置为00101=5,扩容后的位置仍为00101=5;而key2原位置为00101=5,扩容后的位置为10101=5+16(原位置+oldCap)

这样设计的好处在于:既省去了重新计算hash值的时间;同时,新增1bit是0或1是随机的,因此resize扩容的过程,将之前冲突的同一链表上的节点均匀的分散到新的bucket上

5. 线程安全问题

HashMap是非线程安全的,在多线程场景下,应该避免使用,而是使用线程安全的ConcurrentHashMap。在多线程场景中使用HashMap可能出现死循环,从而导致CPU负载过高达到100%,最终程序宕掉。

当put新元素到HashMap中时,如果总元素个数超过 threshold ,HashMap则会resize扩容,从而hash表中的所有元素会rehash,重新分配到新的hash表中。如果多个线程并发进行 rehash的话,可能会导致环形链表的出现,当另一线程调用HashMap.get(),访问到了环形链表时,就出现了死循环,最终导致程序不可用。如何产生环形链表的细节,这篇文章写的很简介明了:https://coolshell.cn/articles/9606.html。

6. 参考

https://tech.meituan.com/java-hashmap.html

https://coolshell.cn/articles/9606.html

 

海外公司注册、海外银行开户、跨境平台代入驻、VAT、EPR等知识和在线办理:https://www.xlkjsw.com

原标题:HashMap源码阅读

关键词:

*特别声明:以上内容来自于网络收集,著作权属原作者所有,如有侵权,请联系我们: admin#shaoqun.com (#换成@)。

可能感兴趣文章

我的浏览记录