热门标签 | HotTags
当前位置:  开发笔记 > 运维 > 正文

全面解析Java中的HashMap类

HashMap类为Java提供了键值对应的map类型,本文将从源码角度全面解析Java中的HashMap类,同时包括其各种常用操作方法等,欢迎参考与借鉴

HashMap 和 HashSet 是 Java Collection Framework 的两个重要成员,其中 HashMap 是 Map 接口的常用实现类,HashSet 是 Set 接口的常用实现类。虽然 HashMap 和 HashSet 实现的接口规范不同,但它们底层的 Hash 存储机制完全一样,甚至 HashSet 本身就采用 HashMap 来实现的。
实际上,HashSet 和 HashMap 之间有很多相似之处,对于 HashSet 而言,系统采用 Hash 算法决定集合元素的存储位置,这样可以保证能快速存、取集合元素;对于 HashMap 而言,系统 key-value 当成一个整体进行处理,系统总是根据 Hash 算法来计算 key-value 的存储位置,这样可以保证能快速存、取 Map 的 key-value 对。
在介绍集合存储之前需要指出一点:虽然集合号称存储的是 Java 对象,但实际上并不会真正将 Java 对象放入 Set 集合中,只是在 Set 集合中保留这些对象的引用而言。也就是说:Java 集合实际上是多个引用变量所组成的集合,这些引用变量指向实际的 Java 对象。

一、HashMap的基本特性

读完JDK源码HashMap.class中的注释部分,可以总结出很多HashMap的特性。

HashMap允许key与value都为null, 而Hashtable是不允许的。

HashMap是线程不安全的, 而Hashtable是线程安全的

HashMap中的元素顺序不是一直不变的,随着时间的推移,同一元素的位置也可能改变(resize的情况)

遍历HashMap的时间复杂度与其的容量(capacity)和现有元素的个数(size)成正比。如果要保证遍历的高效性,初始容量(capacity)不能设置太高或者平衡因子(load factor)不能设置太低。

与之前的相关List同样, 由于HashMap是线程不安全的, 因此迭代器在迭代过程中试图做容器结构上的改变的时候, 会产生fail-fast。通过Collections.synchronizedMap(HashMap)可以得到一个同步的HashMap

二、Hash table 数据结构分析

Hash table(散列表,哈希表),是根据关键字而直接访问内存存储位置的数据结构。也就是说散列表建立了关键字和存储地址之间的一种直接映射

如下图, key经过散列函数得到buckets的一个索引位置。

201651985416482.png (315×230)

通过散列函数获取index不可避免会出现相同的情况,也就是冲突。下面简单介绍几种解决冲突的方法:

Open addressing(开放定址法):此方法的基本思想就是遇到冲突时,顺序扫描表下N个位置,如果有空闲就填入。具体算法不再说明,下面是示意图:

201651985454024.png (380×330)

Separate chaining(拉链):此方法基本思想就是遇到冲突时,将相同索引值的Entry用链表串起来。具体算法不再说明,下面是示意图:

201651985520198.png (620×310)

JDK中的HashMap解决冲突的方法就是用的Separate chaining法。

三、HashMap源码分析(JDK1.7)

1、HashMap读写元素

Entry
HashMap中的存放的元素是Entry类型,下面给出源码中Entry的源码:

static class Entry implements Map.Entry {
 final K key;
 V value;
 Entry next;
 int hash;
 Entry(int h, K k, V v, Entry n) {
  value = v;
  next = n;
  key = k;
  hash = h;
 }
 //key, value的get与set方法省略,get与set操作会在后面的迭代器中用到
 ...
 public final boolean equals(Object o) {
  if (!(o instanceof Map.Entry))
  return false;
  Map.Entry e = (Map.Entry)o;
  Object k1 = getKey();
  Object k2 = e.getKey();
  if (k1 == k2 || (k1 != null && k1.equals(k2))) {
  Object v1 = getValue();
  Object v2 = e.getValue();
  if (v1 == v2 || (v1 != null && v1.equals(v2)))
   return true;
  }
  return false;
 }
 //此处将Key的hashcode与Value的hashcode做亦或运算得到Entry的hashcode
 public final int hashCode() {
  return Objects.hashCode(getKey()) ^ Objects.hashCode(getValue());
 }
 public final String toString() {
  return getKey() + "=" + getValue();
 }
 /**
  * This method is invoked whenever the value in an entry is
  * overwritten by an invocation of put(k,v) for a key k that's already
  * in the HashMap.
  */
 void recordAccess(HashMap m) {
 }
 /**
  * This method is invoked whenever the entry is
  * removed from the table.
  */
 void recordRemoval(HashMap m) {
 }
 }

一个Entry包括key, value, hash以及下一个Entry的引用, 很明显这是个单链表, 其实现了Map.Entry接口。

recordAcess(HashMap 与recordRemoval(HashMap)在HashMap中是没有任何具体实现的。但是在LinkedHashMap这两个方法用来实现LRU算法。

get:读元素
从HashMap中获取相应的Entry, 下面给出get相关源码:

public V get(Object key) {
 //key是null的情况
 if (key == null)
  return getForNullKey();
 //根据key查找Entry
 Entry entry = getEntry(key);
 return null == entry ? null : entry.getValue();
 }

getForNullKey源码

private V getForNullKey() {
 if (size == 0) {
  return null;
 }
 //遍历冲突链
 for (Entry e = table[0]; e != null; e = e.next) {
  if (e.key == null)
  return e.value;
 }
 return null;
 }

key为Null的Entry存放在table[0]中,但是table[0]中的冲突链中不一定存在key为null, 因此需要遍历。

根据key获取entry:

final Entry getEntry(Object key) {
 if (size == 0) {
  return null;
 }
 int hash = (key == null) ? 0 : hash(key);
 //通过hash得到table中的索引位置,然后遍历冲突链表找到Key
 for (Entry e = table[indexFor(hash, table.length)];
  e != null;
  e = e.next) {
  Object k;
  if (e.hash == hash &&
  ((k = e.key) == key || (key != null && key.equals(k))))
  return e;
 }
 return null;
 }

以上就是HashMap读取一个Entry的过程及其源码。时间复杂度O(1)

put:写元素
HashMap中put操作相对复杂, 因为put操作的过程中会有HashMap的扩容操作。
新写入一个元素,如果HashMap中存在要写入元素的key,则执行的是替换value的操作,相当于update。下面是put源码:

public V put(K key, V value) {
 //空表table的话,根据size的阈值填充
 if (table == EMPTY_TABLE) {
  inflateTable(threshold);
 }
 //填充key为Null的Entry
 if (key == null)
  return putForNullKey(value);
 //生成hash,得到索引Index的映射
 int hash = hash(key);
 int i = indexFor(hash, table.length);
 //遍历当前索引的冲突链,找是否存在对应的key
 for (Entry e = table[i]; e != null; e = e.next) {
  Object k;
  //如果存在对应的key, 则替换oldValue并返回oldValue
  if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  V oldValue = e.value;
  e.value = value;
  e.recordAccess(this);
  return oldValue;
  }
 }
 //冲突链中不存在新写入的Entry的key
 modCount++;
 //插入一个新的Entry
 addEntry(hash, key, value, i);
 return null;
 }

addEntry与createEntry源码:

void addEntry(int hash, K key, V value, int bucketIndex) {
 //插入新Entry前,先对当前HashMap的size和其阈值大小的判断,选择是否扩容
 if ((size >= threshold) && (null != table[bucketIndex])) {
  resize(2 * table.length);
  hash = (null != key) ? hash(key) : 0;
  bucketIndex = indexFor(hash, table.length);
 }
 createEntry(hash, key, value, bucketIndex);
 }
 void createEntry(int hash, K key, V value, int bucketIndex) {
 Entry e = table[bucketIndex];
 //头插法,新写入的entry插入当前索引位置的冲突链第一个Entry的前面
 table[bucketIndex] = new Entry<>(hash, key, value, e);
 size++;
 }

以上就是HashMap写入一个Entry的过程及其源码。时间复杂度O(1)

remove移除元素:

final Entry removeEntryForKey(Object key) {
 if (size == 0) {
  return null;
 }
 //根据key计算hash值,获取索引
 int hash = (key == null) &#63; 0 : hash(key);
 int i = indexFor(hash, table.length);
 //链表的删除,定义两个指针,pre表示前驱
 Entry prev = table[i];
 Entry e = prev;
 //遍历冲突链,删除所有为key的Enrty
 while (e != null) {
  Entry next = e.next;
  Object k;
  //找到了
  if (e.hash == hash &&
  ((k = e.key) == key || (key != null && key.equals(k)))) {
  modCount++;
  size--;
  //找到第一个结点就是要删除的结点
  if (prev == e)
   table[i] = next;
  else
   prev.next = next;
  e.recordRemoval(this);
  return e;
  }
  prev = e;
  e = next;
 }
 return e;
 }

以上就是HashMap删除一个Entry的过程及其源码。时间复杂度O(1)

2、HashMap的哈希原理(hash function)

HashMap中散列函数的实现是通过hash(Object k) 与 indexFor(int h, int length)完成, 下面看下源码:

 final int hash(Object k) {
 int h = hashSeed;
 if (0 != h && k instanceof String) {
  return sun.misc.Hashing.stringHash32((String) k);
 }
 h ^= k.hashCode();
 // This function ensures that hashCodes that differ only by
 // constant multiples at each bit position have a bounded
 // number of collisions (approximately 8 at default load factor).
 //为了降低冲突的几率
 h ^= (h >>> 20) ^ (h >>> 12);
 return h ^ (h >>> 7) ^ (h >>> 4);
 }

获取Index索引源码:

static int indexFor(int h, int length) {
 // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
 return h & (length-1);
 }

HashMap通过一个hash function将key映射到[0, table.length]的区间内的索引。这样的索引方法大体有两种:

hash(key) % table.length, 其中length必须为素数。JDK中HashTable利用此实现方式。
具体使用素数的原因,可以查找相关算法资料证明,这里不再陈述。

hash(key) & (table.length - 1 ) 其中length必须为2指数次方。JDK中HashMap利用此实现方式。
因为length的大小为2指数次方倍, 因此 hash(key) & (table.length - 1)总会在[0, length - 1]之间。但是仅仅这样做的话会出现问题一个冲突很大的问题,因为JAVA中hashCode的值为32位,当HashMap的容量偏小,例如16时,做异或运算时,高位总是被舍弃,低位运算后却增加了冲突发生的概率。

因此为了降低冲突发生的概率, 代码中做了很多位运算以及异或运算。

3、HashMap内存分配策略

成员变量capacity与loadFactor
HashMap中要求容量Capacity是2的指数倍, 默认容量是1 <<4 = 16。HashMap中还存在一个平衡因子(loadFactor),过高的因子会降低存储空间但是查找(lookup,包括HashMap中的put与get方法)的时间就会增加。 loadFactor默认值为0.75是权衡了时间复杂度以及空间复杂度给出的最优值。

 static final int DEFAULT_INITIAL_CAPACITY = 1 <<4; // aka 16
 static final int MAXIMUM_CAPACITY = 1 <<30;
 static final float DEFAULT_LOAD_FACTOR = 0.75f;

HashMap的构造函数
HashMap的构造就是设置capacity,与loadFactor的初始值

public HashMap(int initialCapacity, float loadFactor) {
 if (initialCapacity <0)
  throw new IllegalArgumentException("Illegal initial capacity: " +
      initialCapacity);
 if (initialCapacity > MAXIMUM_CAPACITY)
  initialCapacity = MAXIMUM_CAPACITY;
 if (loadFactor <= 0 || Float.isNaN(loadFactor))
  throw new IllegalArgumentException("Illegal load factor: " +
      loadFactor);
 this.loadFactor = loadFactor;
 threshold = initialCapacity;
 init();
 }

之前说过HashMap中capacity必须是2的指数倍, 构造函数里并没有限制,那如何保证保证capacity的值是2的指数倍呢?
在put操作时候,源码中会判断目前的哈希表是否是空表,如果是则调用inflateTable(int toSize)

private void inflateTable(int toSize) {
 // Find a power of 2 >= toSize
 int capacity = roundUpToPowerOf2(toSize);
 threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
 table = new Entry[capacity];
 initHashSeedAsNeeded(capacity);
 }

其中roundUpToPowerOf2就是获取大于等于给定参数的最小的2的n次幂

private static int roundUpToPowerOf2(int number) {
 // assert number >= 0 : "number must be non-negative";
 return number >= MAXIMUM_CAPACITY
  &#63; MAXIMUM_CAPACITY
  : (number > 1) &#63; Integer.highestOneBit((number - 1) <<1) : 1;
 }

Integer.hightestOneBit(int)是将给定参数的最高位的1保留,剩下的变为0的操作,简单说就是将参数int变为小于等于它的最大的2的n次幂。

若number为2的n次幂,减1后最高位处于原来的次高位, 再左移1位仍然可以定位到最高位位置
若number不是2的n次幂,减1左移1位后最高位仍是原来的最高位

扩容:
HashMap在put操作的时候会发生resize行为,具体源码如下:

void resize(int newCapacity) {
 Entry[] oldTable = table;
 int oldCapacity = oldTable.length;
 //哈希表已达到最大容量,1 <<30
 if (oldCapacity == MAXIMUM_CAPACITY) {
  threshold = Integer.MAX_VALUE;
  return;
 }
 Entry[] newTable = new Entry[newCapacity];
 //将oldTable中的Entry转移到newTable中
 //initHashSeedAsNeeded的返回值决定是否重新计算hash值
 transfer(newTable, initHashSeedAsNeeded(newCapacity));
 table = newTable;
 //重新计算threshold
 threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
 }
void transfer(Entry[] newTable, boolean rehash) {
 int newCapacity = newTable.length;
 //遍历oldTable
 for (Entry e : table) {
  //遍历冲突链
  while(null != e) {
  Entry next = e.next;
  if (rehash) {
   //重新计算hash值
   e.hash = null == e.key &#63; 0 : hash(e.key);
  }
  int i = indexFor(e.hash, newCapacity);
  //将元素插入到头部,头插法
  e.next = newTable[i];
  newTable[i] = e;
  e = next;
  }
 }
 }

以上就是HashMap内存分配的整个过程,总结说来就是,hashMap在put一个Entry的时候会检查当前容量与threshold的大小来选择是否扩容。每次扩容的大小是2 * table.length。在扩容期间会根据initHashSeedAsNeeded判断是否需要重新计算hash值。

四、HashMap的迭代器

HashMap中的ValueIterator, KeyIterator, EntryIterator等迭代器都是基于HashIterator的,下面看下它的源码:

private abstract class HashIterator implements Iterator {
 Entry next; // next entry to return
 int expectedModCount; // For fast-fail
 int index;  // current slot,table index
 Entry current; // current entry
 HashIterator() {
  expectedModCount = modCount;
  //在哈希表中找到第一个Entry
  if (size > 0) { 
  Entry[] t = table;
  while (index  nextEntry() {
  //HashMap是非线程安全的,遍历时仍然先判断是否有表结构的修改
  if (modCount != expectedModCount)
  throw new ConcurrentModificationException();
  Entry e = next;
  if (e == null)
  throw new NoSuchElementException();
  if ((next = e.next) == null) {
  //找到下一个Entry
  Entry[] t = table;
  while (index 

Key, Value, Entry这个三个迭代器进行封装就变成了keySet, values, entrySet三种集合视角。这三种集合视角都支持对HashMap的remove, removeAll, clear操作,不支持add, addAll操作。


推荐阅读
  • 2023年京东Android面试真题解析与经验分享
    本文由一位拥有6年Android开发经验的工程师撰写,详细解析了京东面试中常见的技术问题。涵盖引用传递、Handler机制、ListView优化、多线程控制及ANR处理等核心知识点。 ... [详细]
  • 深入解析 Apache Shiro 安全框架架构
    本文详细介绍了 Apache Shiro,一个强大且灵活的开源安全框架。Shiro 专注于简化身份验证、授权、会话管理和加密等复杂的安全操作,使开发者能够更轻松地保护应用程序。其核心目标是提供易于使用和理解的API,同时确保高度的安全性和灵活性。 ... [详细]
  • 优化ListView性能
    本文深入探讨了如何通过多种技术手段优化ListView的性能,包括视图复用、ViewHolder模式、分批加载数据、图片优化及内存管理等。这些方法能够显著提升应用的响应速度和用户体验。 ... [详细]
  • 本文探讨了Hive中内部表和外部表的区别及其在HDFS上的路径映射,详细解释了两者的创建、加载及删除操作,并提供了查看表详细信息的方法。通过对比这两种表类型,帮助读者理解如何更好地管理和保护数据。 ... [详细]
  • 1:有如下一段程序:packagea.b.c;publicclassTest{privatestaticinti0;publicintgetNext(){return ... [详细]
  • 本文详细介绍了Java编程语言中的核心概念和常见面试问题,包括集合类、数据结构、线程处理、Java虚拟机(JVM)、HTTP协议以及Git操作等方面的内容。通过深入分析每个主题,帮助读者更好地理解Java的关键特性和最佳实践。 ... [详细]
  • 在金融和会计领域,准确无误地填写票据和结算凭证至关重要。这些文件不仅是支付结算和现金收付的重要依据,还直接关系到交易的安全性和准确性。本文介绍了一种使用C语言实现小写金额转换为大写金额的方法,确保数据的标准化和规范化。 ... [详细]
  • 网络攻防实战:从HTTP到HTTPS的演变
    本文通过一系列日记记录了从发现漏洞到逐步加强安全措施的过程,探讨了如何应对网络攻击并最终实现全面的安全防护。 ... [详细]
  • 题库来源:安全生产模拟考试一点通公众号小程序G3锅炉水处理报名考试是安全生产模拟考试一点通生成的,G3锅炉水处理证模拟考试题库是根据G3锅炉水处理最新 ... [详细]
  • 作为一名专业的Web前端工程师,掌握HTML和CSS的命名规范是至关重要的。良好的命名习惯不仅有助于提高代码的可读性和维护性,还能促进团队协作。本文将详细介绍Web前端开发中常用的HTML和CSS命名规范,并提供实用的建议。 ... [详细]
  • 360SRC安全应急响应:从漏洞提交到修复的全过程
    本文详细介绍了360SRC平台处理一起关键安全事件的过程,涵盖从漏洞提交、验证、排查到最终修复的各个环节。通过这一案例,展示了360在安全应急响应方面的专业能力和严谨态度。 ... [详细]
  • 为了深入了解辽源市市民对智能城市建设的感受和建议,国家统计局辽源调查队近期开展了一项针对200位市民的问卷调查。结果显示,大部分市民对智能城市的认知度较高,并对其带来的便利表示肯定。 ... [详细]
  • 本文详细探讨了Netty中Future及其子类的设计与实现,包括其在并发编程中的作用和具体应用场景。我们将介绍Future的继承体系、关键方法的实现细节,并讨论如何通过监听器和回调机制来处理异步任务的结果。 ... [详细]
  • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
  • 解决MongoDB Compass远程连接问题
    本文记录了在使用阿里云服务器部署MongoDB后,通过MongoDB Compass进行远程连接时遇到的问题及解决方案。详细介绍了从防火墙配置到安全组设置的各个步骤,帮助读者顺利解决问题。 ... [详细]
author-avatar
jack_liujh_598
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有