本文为博主原创文章,转载请注明出处:http://blog.csdn.net/eson_15/article/details/51154989
上一章总体分析了Map架构,并简单分析了一下AbstractMap源码,这一章开始我们将对Map的具体实现类进行详细的学习。本章先研究HashMap。依然遵循以下步骤:先对HashMap有个整体的认识,然后学习它的源码,深入剖析HashMap。
1.HashMap简介首先看一下HashMap的继承关系
java.lang.Object ↳ java.util.AbstractMap我们可以看出,HashMap不仅继承了AbstractMap,而且实现了Map、Cloneable和Serializable接口,所以HashMap也可以序列化。另外,HashMap是非同步的,但是我们可以通过Collections类的静态方法synchronizedMap获得线程安全的HashMap。即:↳ java.util.HashMap public class HashMap extends AbstractMap implements Map , Cloneable, Serializable { }
Map map = Collections.synchronizedMap(new HashMap());下面先总览一下HashMap都有哪些API,然后我们详细分析它们。
void clear() Object clone() boolean containsKey(Object key) boolean containsValue(Object value) Set2.HashMap的数据结构> entrySet() V get(Object key) boolean isEmpty() Set keySet() V put(K key, V value) void putAll(Map extends K, ? extends V> map) V remove(Object key) int size() Collection values()
HashMap存储数据的数组定义如下,里面存放的是Entry
transient EntryHashMap的底层主要是基于数组和链表实现的,它之所以有相当快的查询速度主要是因为它是通过计算散列码来决定存储位置的。HashMap中主要是通过key的hashCode来计算hash值,然后通过hash值选择不同的数组来存储。只要hashCode相同,计算出来的hash值就一样,如果存储对象多了,就有可能不同的对象计算出来的hash值是相同的,这就出现了所谓的hash冲突,解决hash冲突的方法很多,具体可以参见我这篇博客:数据结构与算法07 指哈希表。HashMap的底层是通过链表来解决hash冲突的。下面看一下它的存储结构图:[] table
图中紫色部分代表哈希表,其实就是哈希数组,数组的每个元素都是一个单链表的头结点,链表是用来解决hash冲突的,如果不同的key映射到了数组的同一位置,那么就将其放入单链表中。下面的图可能在代码的角度更能说明问题:
下面我们阅读一下数组中存储的Entry实体类源码。
/** * Entry其实是个单向链表:它是“HashMap链式存储法”对应的链表。 * 它实现了Map.Entry接口,也就是实现了getKey()、getValue()、setValue(V value) * equals(Object o)和hashCode()这些方法。 **/ static class Entry从Entry实体源码中可以看出,HashMap其实就是一个存储Entry的数组,Entry对象包含了键和值,其中next也是一个Entry对象,用来处理hash冲突的,形成一个链表。这样一来,我们对HashMap就有很好的理解了。下面我们详细分析HashMap中的源码。implements Map.Entry { final K key; V value; Entry next; //指向下一个节点 int hash; /** * 构造方法,创建一个Entry * 参数:哈希值h,键值k,值v和下一个节点n */ Entry(int h, K k, V v, Entry n) { value = v; next = n; key = k; hash = h; } public final K getKey() { return key; } public final V getValue() { return value; } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } //判断两个Entry是否相等,必须key和value都相等,才返回true public final boolean equals(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry e = (Map.Entry)o; Object k1 = getKey(); Object k2 = e.getKey(); if (k1 == k2 || (k1 != null && k1.equals(k2))) { Object v1 = getValue(); Object v2 = e.getValue(); if (v1 == v2 || (v1 != null && v1.equals(v2))) return true; } return false; } public final int hashCode() { //实现hashCode return Objects.hashCode(getKey()) ^ Objects.hashCode(getValue()); } public final String toString() { return getKey() + "=" + getValue(); } /** * 当向HashMap中添加元素时,即调用put(k,v)时, * 对已经在HashMap中k位置进行v的覆盖时,会调用此方法 * 这里没做任何处理 */ void recordAccess(HashMap m) { } /** * 当从HashMap中删除了一个Entry时,会调用该函数 * 这里没做任何处理 */ void recordRemoval(HashMap m) { } }
之前分析源码都是将所有源码全部贴上来,然后分析部分放到源码内部,这样看起来有点太多,一下子好几百行源码看的有点懵。这章开始采用分段式分析,将源码分分类,然后各部分突破,这样看起来更加清晰明朗。
先看看HashMap的几个关键属性:
//默认初始容量是16,必须是2的幂 static final int DEFAULT_INITIAL_CAPACITY = 1 <<4; // aka 16 //最大容量(必须是2的幂且小于2的30次方,传入容量过大会被这个值替换) static final int MAXIMUM_CAPACITY = 1 <<30; //默认加载因子,所谓加载因子是指哈希表在其容量自动增加之前可以达到多满的一种尺度 static final float DEFAULT_LOAD_FACTOR = 0.75f; //存储Entry的默认空数组 static final Entry,?>[] EMPTY_TABLE = {}; //存储Entry的数组,长度为2的幂。HashMap采用拉链法实现的,每个Entry的本质是个单向链表 transient Entry我们主要来看看loadFactor属性,loadFactor表示Hash表中元素的填满程度。[] table = (Entry []) EMPTY_TABLE; //HashMap的大小,即HashMap存储的键值对数量 transient int size; //HashMap的阈值,用于判断是否需要调整HashMap的容量 int threshold; //加载因子实际大小 final float loadFactor; //HashMap被修改的次数,用于fail-fast机制 transient int modCount;
若加载因子设置过大,则填满的元素越多,无疑空间利用率变高了,但是冲突的机会增加了,冲突的越多,链表就会变得越长,那么查找效率就会变得更低;
若加载因子设置过小,则填满的元素越少,那么空间利用率变低了,表中数据将变得更加稀疏,但是冲突的机会减小了,这样链表就不会太长,查找效率变得更高。
这看起来有点绕口,我举个简单的例子,如果数组容量为100,加载因子设置为80,即装满了80个才开始扩容,但是在装的过程中,可能有很多key对应相同的hash值,这样就会放到同一个链表中(因为没到80个不能扩容),这样就会导致很多链表都变得很长,也就是说,不同的key对应相同的hash值比数组填满到80个更加容易出现。
但是如果设置加载因子为10,那么数组填满10个就开始扩容了,10个相对来说是很容易填满的,而且在10个内出现相同的hash值概率比上面的情况要小的多,一旦扩容之后,那么计算hash值又会跟原来不一样,就不会再冲突了,这样保证了链表不会很长,甚至就一个表头都有可能,但是空间利用率很低,因为始终有很多空间没利用就开始扩容。
因此,就需要在“减小冲突”和“空间利用率”之间寻找一种平衡,这种平衡就是数据结构中有名的“时-空”矛盾的平衡。如果机器内存足够,并且想要提高查询速度的话可以将加载因子设置小一点;相反如果机器内存紧张,并且对查询速度没什么要求的话可以将加载因子设置大一点。一般我们都使用它的默认值,即0.75。
下面看看HashMap的几个构造方法:
/************************** 构造函数 *******************************/ public HashMap(int initialCapacity, float loadFactor) {//带有初始容量和加载因子 //确保容量数字合法 if (initialCapacity <0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; //将阈值设置为初始容量,这里不是真正的阈值,是为了扩展table的,后面这个阈值会重新计算 threshold = initialCapacity; init();//一个空方法用于未来的子对象扩展 } public HashMap(int initialCapacity) { //带有初始容量,加载因子设为默认值 this(initialCapacity, DEFAULT_LOAD_FACTOR); } public HashMap() { //初始容量和加载因子均为默认值 this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR); } //构造一个映射关系与指定 Map 相同的新 HashMap public HashMap(Map extends K, ? extends V> m) { this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR); inflateTable(threshold); putAllForCreate(m); }我们可以看到,在构造HashMap的时候,如果我们指定了加载因子和初始容量的话就调用第一个构造方法,否则就用默认的。默认的初始容量为16加载因子为0.75。
存取部分重点分析一下put和get方法,因为这两个方法也是最常用的。其他的存取方法,我放到代码中分析。首先看看HashMap中是如何存储数据的,看put方法:
public V put(K key, V value) { if (table == EMPTY_TABLE) { //如果哈希表没有初始化(table为空) inflateTable(threshold); //用构造时的阈值(其实就是初始容量)扩展table } //如果key==null,就将value加到table[0]的位置 //该位置永远只有一个value,新传进来的value会覆盖旧的value if (key == null) return putForNullKey(value); int hash = hash(key); //根据键值计算hash值 int i = indexFor(hash, table.length); //搜索指定hash在table中的索引 //循环遍历Entry数组,若该key对应的键值对已经存在,则用新的value取代旧的value for (Entry我们下面一步步分析put方法内部都干了些啥:e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; //并返回旧的value } } modCount++; //如果在table[i]中没找到对应的key,那么就直接在该位置的链表中添加此Entry addEntry(hash, key, value, i); return null; }
首先检测table是不是为空table,如果是空table,说明并没有给table初始化,所以调用inflateTable(threadshold)方法给table初始化。该方法如下:
//扩展table private void inflateTable(int toSize) { // Find a power of 2 >= toSize int capacity = roundUpToPowerOf2(toSize); //获取和toSize最接近的2的幂作为容量 //重新计算阈值 threshold = 容量 * 加载因子 threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1); table = new Entry[capacity]; //用该容量初始化table initHashSeedAsNeeded(capacity); } //将初始容量转变成2的幂 private static int roundUpToPowerOf2(int number) { // assert number >= 0 : "number must be non-negative"; return number >= MAXIMUM_CAPACITY ? MAXIMUM_CAPACITY //如果容量超过了最大值,设置为最大值 //否则设置为最接近给定值的2的次幂数 : (number > 1) ? Integer.highestOneBit((number - 1) <<1) : 1; }在inflateTable方法内,首先初始化数组容量大小,数组容量永远是2的幂(下面会分析为什么要这样)。所以调用roundUpToPowerOf2方法将传进来的容量转换成最接近2的次幂的值,然后重新计算阈值threadshold = 容量 x 加载因子,最后初始化table。所以刚开始初始化table不是在HashMap的构造函数里,因为构造函数中仅仅简单的将传进去的容量作为阈值。真正初始化table是在第一次往HashMap中put数据的时候。
初始化好了table后,就开始往table中存入数据了,table中存的是Entry实体,而put方法传进来的是key和value,所以接下来要做两件事:
1. 找到table数组中要存入的位置;
2. 将key和value封装到Entry中存入。
我们再回到put方法中,先来分析第一步,找存储的位置就要依靠key的值了,因为需要用key的值来计算hash值,根据hash值来决定在table中的位置。首先当key为null时,调用putForNullKey方法,该方法内部实现如下:
//传进key==null的Entry private V putForNullKey(V value) { for (Entry从方法中可以看出,null的hash值为0,所以首先会定位到table[0]处,然后依次查询是否有key==null的键,如果有,将对应的value用新的value值取代,同时返回旧的value值。如果没有key==null的键,那么调用addEntry方法,将空键和值封装到Entry中放到table[0]的位置,addEntry方法如下:e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; //如果table[0]处没有key为null addEntry(0, null, value, 0);//如果键为null的话,则hash值为0 return null; }
//向HashMap中添加Entry void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); //扩容2倍 hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } //创建一个Entry void createEntry(int hash, K key, V value, int bucketIndex) { Entry从该方法中可以看出,第一个参数是hash值,中间两个是key和value,最后一个是插入table的索引位置。插入之前先判断容量是否足够,若不够,HashMap中是2倍扩容。若够了,addEntry中先计算hash值,然后通过调用indexFor方法返回在索引的位置,这两个方法如下:e = table[bucketIndex];//先把table中该位置原来的Entry保存 //在table中该位置新建一个Entry,将原来的Entry挂到该Entry的next table[bucketIndex] = new Entry<>(hash, key, value, e); //所以table中的每个位置永远只保存一个最新加进来的Entry,其他Entry是一个挂一个,这样挂上去的 size++; }
final int hash(Object k) {
int h = hashSeed;
if (0 != h && k instanceof String) {
return sun.misc.Hashing.stringHash32((String) k);
}
h ^= k.hashCode();
// 预处理hash值,避免较差的离散hash序列,导致table没有充分利用
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
//这个方法有点意思,也是为什么容量要设置为2的幂的原因
static int indexFor(int h, int length) {
// assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
return h & (length-1);
}
indexFor方法返回索引的位置,里面只做了一件事:h & (length-1)。这究竟做了什么?为什么这句能解释容量必须为2的幂呢?我们详细分析下:首先,h & (length-1)相当于h & length,但是h % length效率比较低(HashTable中是这儿干的)。为啥h & (length-1)相当于h % length呢?现在假设length为2的幂,那么length就可以表示成100......00的形式(表示至少1个0),那么length-1就是01111....11。对于任意小于length的数h来说,与01111...11做&后都是h本身,对于h=length来说,&后结果为0,对于大于length的数h,&过后相当于h-j*length,也就是h % length。这也就是为啥容量必须为2的幂了,为了优化,好做&运算,效率高。
其次,length为2的次幂的话,是偶数,这样length-1为奇数,奇数的最后一位是1,这样便保证了h & (length-1)的最后一位可能为0也可能为1(取决于h的值),即结果可能为奇数,也可能为偶数,这样便可以保证散列的均匀性,即均匀分布在数组table中;而如果length为奇数的话,很明显length-1为偶数,它的最后一位是0,这样h & (length-1)的最后一位肯定为0,级只能为偶数,这样任何hash值都会被映射到数组的偶数下标位置上,这便浪费了近一半的空间!因此,length去2的整数次幂,也是为了使不同hash值发生碰撞的概率较小,这样就能使元素在哈希表中均匀的散列。
再回到addEntry方法中,接下来就调用createEntry方法在table数组适当的位置开创一个Entry了,new Entry的时候,将next置为原本在该位置的Entry即可,这样,原来的Entry就挂到现在的Entry上了,以后只要在该位置新new一个Entry,就将原来的挂上去,这样一个挂一个,形成了一个链表。但是table中永远存储的是最新的Entry,并非一个真正的链表数据结构,只是这么多Entry是一个个连在一起的,跟链表很像而已。
现在往上回到put方法,我们刚刚分析完了key==null的情况,接着往下走,下面其实跟刚刚分析的一样了,先计算hash值,然后找到在table中的位置,然后开始判断是否已经有相同的key的Entry放在那了,如果有,用新的value取代旧的value,如果没有,用传进来的key和value新new一个Entry放到table中,并与原来的Entry挂上。过程跟上面分析的一模一样,唯一不同的就是key!=null。这里就不再赘述了。
下面再看看HashMap中读取数据的get方法:
public V get(Object key) { if (key == null) return getForNullKey(); //hey==null时,从table[0]中取 Entryentry = getEntry(key);//key!=null->getEntry return null == entry ? null : entry.getValue(); } private V getForNullKey() { if (size == 0) { return null; } for (Entry e = table[0]; e != null; e = e.next) { if (e.key == null) return e.value;//从table[0]中取key==null的value值 } return null; } final Entry getEntry(Object key) { if (size == 0) { return null; } //取值与上面put中传值相反 int hash = (key == null) ? 0 : hash(key); for (Entry e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; // 如果hash值相等,并且key相等则证明这个Entry里的东西是我们想要的 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; }
有了对put方法的理解,这段get方法应该就很容易了。从源码中更可以看出,从HashMap中get元素时,先计算key的hashCode,找到数组中国对应的位置,然后通过key的equals在对应位置的链表中找到需要的元素。这里就不再赘述了。
上面我们重点分析了HashMap中的存取方法,当然HashMap中还有其他很多方法,如remove、containsXXX等,以及与迭代器和序列化相关的方法等等。该部分方法的解析全部放在源码里了。源码如下:
//返回当前HashMap的key-value映射数,即Entry数量 public int size() { return size; } //判断HashMap是否为空,size==0表示空 public boolean isEmpty() { return size == 0; } //判断HashMap中是否包含指定键的映射 public boolean containsKey(Object key) { return getEntry(key) != null; //getEntry方法在上面已经拿出来分析了 } //看看需不需要创建新的Entry private void putForCreate(K key, V value) { // 如果key为null,则定义hash为0,否则用hash函数预处理 int hash = null == key ? 0 : hash(key); int i = indexFor(hash, table.length); //遍历所有的Entry for (Entrye = table[i]; e != null; e = e.next) { Object k; //如果有hash相同,且key相同,那么则不需要创建新的Entry,退出 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { e.value = value; return; } } createEntry(hash, key, value, i);//否则需要创建新的Entry } //根据已有的Map创建对应的Entry private void putAllForCreate(Map extends K, ? extends V> m) { for (Map.Entry extends K, ? extends V> e : m.entrySet()) putForCreate(e.getKey(), e.getValue()); } //用新的容量来给table扩容 void resize(int newCapacity) { Entry[] oldTable = table; //保存old table int oldCapacity = oldTable.length; //保存old capacity // 如果旧的容量已经是系统默认最大容量了,那么将阈值设置成整形的最大值,退出 if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } //根据新的容量新建一个table Entry[] newTable = new Entry[newCapacity]; //将table转换成newTable transfer(newTable, initHashSeedAsNeeded(newCapacity)); table = newTable; //设置阈值 threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); } //将所有的Entry移到新的table中 void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry e : table) {//获得原来table中的所有Entry while(null != e) { Entry next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); //下面两句跟createEntry方法中原理一样的 e.next = newTable[i];//设置e.next为newTable[i]保存的Entry newTable[i] = e; //将e设置为newTable[i] e = next; //设置e为下一个Entry,继续上面while循环 } } } //将指定的Map中所有映射复制到现有的HashMap中,这些映射关系将覆盖当前HashMap中针对指定键相同的映射关系 //有点拗口,其实就是跟put的原理一样,key如果存在,就替换现有key对应的value public void putAll(Map extends K, ? extends V> m) { //统计下需要复制多少个映射关系 int numKeysToBeAdded = m.size(); if (numKeysToBeAdded == 0) return; //如果table还没初始化,先用刚刚统计的复制数去初始化table if (table == EMPTY_TABLE) { inflateTable((int) Math.max(numKeysToBeAdded * loadFactor, threshold)); } //如果要复制的数目比阈值还要大 if (numKeysToBeAdded > threshold) { //需要先resize int targetCapacity = (int)(numKeysToBeAdded / loadFactor + 1); if (targetCapacity > MAXIMUM_CAPACITY) targetCapacity = MAXIMUM_CAPACITY; int newCapacity = table.length; while (newCapacity table.length) resize(newCapacity); } //开始复制 for (Map.Entry extends K, ? extends V> e : m.entrySet()) put(e.getKey(), e.getValue());//其实就是一个个put进去 } //根据指定的key删除Entry,返回对应的value public V remove(Object key) { Entry e = removeEntryForKey(key); return (e == null ? null : e.value); } //根据指定的key,删除Entry,并返回对应的value final Entry removeEntryForKey(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); int i = indexFor(hash, table.length); Entry prev = table[i]; Entry e = prev; while (e != null) { Entry next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { modCount++; size--; if (prev == e) //如果删除的是table中的第一项的引用 table[i] = next;//直接将第一项中的next的引用存入table[i]中 else prev.next = next; //否则将table[i]中当前Entry的前一个Entry中的next置为当前Entry的next e.recordRemoval(this); return e; } prev = e; e = next; } return e; } //根据Entry来删除HashMap中的值 final Entry removeMapping(Object o) { if (size == 0 || !(o instanceof Map.Entry)) return null; Map.Entry entry = (Map.Entry ) o; Object key = entry.getKey();//第一步也是先获得该Entry中保存的key int hash = (key == null) ? 0 : hash(key);//接下来就和上面根据key删除Entry道理一样了 int i = indexFor(hash, table.length); Entry prev = table[i]; Entry e = prev; while (e != null) { Entry next = e.next; if (e.hash == hash && e.equals(entry)) { modCount++; size--; if (prev == e) table[i] = next; else prev.next = next; e.recordRemoval(this); return e; } prev = e; e = next; } return e; } //清空HashMap中所有的Entry public void clear() { modCount++; Arrays.fill(table, null);//将table中存储的Entry全部置为null size = 0;//size置为0 } //判断HashMap中是否有key映射到指定的value public boolean containsValue(Object value) { if (value == null)//如果value为空,调用下面特定的containsNullValue()方法 return containsNullValue(); Entry[] tab = table;//否则遍历链表中的每个Entry for (int i = 0; i result = null; try { result = (HashMap )super.clone(); } catch (CloneNotSupportedException e) { // assert false; } if (result.table != EMPTY_TABLE) { result.inflateTable(Math.min( (int) Math.min( size * Math.min(1 / loadFactor, 4.0f), // we have limits... HashMap.MAXIMUM_CAPACITY), table.length)); } result.entrySet = null; result.modCount = 0; result.size = 0; result.init(); result.putAllForCreate(this); return result; } /********************** 下面跟Iterator有关了 ************************/ //hashIterator实现了Iterator接口 private abstract class HashIterator implements Iterator { Entry next; // 下一个Entry int expectedModCount; // 用于fail-fast机制 int index; // 当前索引 Entry current; //当前的Entry HashIterator() { expectedModCount = modCount;//保存modCount用于fail-fast机制 if (size > 0) { // advance to first entry Entry[] t = table; while (index nextEntry() { if (modCount != expectedModCount)//在迭代的过程中发现被修改了,就会抛出异常 throw new ConcurrentModificationException();//即fail-fast Entry e = next; if (e == null) //没有就抛出异常 throw new NoSuchElementException(); if ((next = e.next) == null) { Entry[] t = table; while (index { public V next() { return nextEntry().value; } } //内部class KeyIterator迭代器,它修改了next方法 private final class KeyIterator extends HashIterator { public K next() { return nextEntry().getKey(); } } //内部class EntryIterator迭代器,它修改了next方法 private final class EntryIterator extends HashIterator > { public Map.Entry next() { return nextEntry(); } } //定义上面三个对应的Iterator方法 Iterator newKeyIterator() { return new KeyIterator(); } Iterator newValueIterator() { return new ValueIterator(); } Iterator > newEntryIterator() { return new EntryIterator(); } private transient Set > entrySet = null; /** * 返回此映射中所包含的键的 Set 视图。 * 该 set 受映射的支持,所以对映射的更改将反映在该 set 中, * 反之亦然。如果在对 set 进行迭代的同时修改了映射(通过迭代器自己的 remove 操作除外), * 则迭代结果是不确定的。该 set 支持元素的移除,通过 * Iterator.remove、Set.remove、removeAll、retainAll 和 clear 操作 * 可从该映射中移除相应的映射关系。它不支持 add 或 addAll 操作。 */ public Set keySet() { Set ks = keySet; return (ks != null ? ks : (keySet = new KeySet())); } private final class KeySet extends AbstractSet { public Iterator iterator() { return newKeyIterator(); } public int size() { return size; } public boolean contains(Object o) { return containsKey(o); } public boolean remove(Object o) { return HashMap.this.removeEntryForKey(o) != null; } public void clear() { HashMap.this.clear(); } } /** * 返回此映射所包含的值的 Collection 视图。 * 该 collection 受映射的支持,所以对映射的更改将反映在该 collection 中, * 反之亦然。如果在对 collection 进行迭代的同时修改了映射(通过迭代器自己的 remove 操作除外), * 则迭代结果是不确定的。该 collection 支持元素的移除, * 通过 Iterator.remove、Collection.remove、removeAll、retainAll 和 clear 操作 * 可从该映射中移除相应的映射关系。它不支持 add 或 addAll 操作。 */ public Collection values() { Collection vs = values; return (vs != null ? vs : (values = new Values())); } private final class Values extends AbstractCollection { public Iterator iterator() { return newValueIterator(); } public int size() { return size; } public boolean contains(Object o) { return containsValue(o); } public void clear() { HashMap.this.clear(); } } /** * 返回此映射所包含的映射关系的 Set 视图。 * 该 set 受映射支持,所以对映射的更改将反映在此 set 中, * 反之亦然。如果在对 set 进行迭代的同时修改了映射 * (通过迭代器自己的 remove 操作,或者通过在该迭代器返回的映射项上执行 setValue 操作除外), * 则迭代结果是不确定的。该 set 支持元素的移除, * 通过 Iterator.remove、Set.remove、removeAll、retainAll 和 clear 操作 * 可从该映射中移除相应的映射关系。它不支持 add 或 addAll 操作。 */ public Set > entrySet() { return entrySet0(); } private Set > entrySet0() { Set > es = entrySet; return es != null ? es : (entrySet = new EntrySet()); } private final class EntrySet extends AbstractSet > { public Iterator > iterator() { return newEntryIterator(); } public boolean contains(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry e = (Map.Entry ) o; Entry candidate = getEntry(e.getKey()); return candidate != null && candidate.equals(e); } public boolean remove(Object o) { return removeMapping(o) != null; } public int size() { return size; } public void clear() { HashMap.this.clear(); } } /************************** 序列化 *****************************/ private void writeObject(java.io.ObjectOutputStream s) throws IOException { // Write out the threshold, loadfactor, and any hidden stuff s.defaultWriteObject(); //将table.length写入流 if (table==EMPTY_TABLE) { s.writeInt(roundUpToPowerOf2(threshold)); } else { s.writeInt(table.length); } //将size写入流 s.writeInt(size); //这里之所以不直接将table写出,而是分开写里面保存Entry的key和value的原因是: //table数组定义为了transient,也就是说在进行序列化时,并不包含该成员。 //为什么将其设置为transient呢?因为Object.hashCode方法对于一个类的两个实例返回的是不同的哈希值。 //即我们在机器A上算出对象A的哈希值与索引,然后把它插入到HashMap中,然后把该HashMap序列化后, //在机器B上重新算对象的哈希值与索引,这与机器A上算出的是不一样的, //所以我们在机器B上get对象A时,会得到错误的结果。 //所以我们分开序列化key和value if (size > 0) { for(Map.Entry e : entrySet0()) { s.writeObject(e.getKey()); s.writeObject(e.getValue()); } } } private static final long serialVersiOnUID= 362498820763181265L; private void readObject(java.io.ObjectInputStream s) throws IOException, ClassNotFoundException { // Read in the threshold (ignored), loadfactor, and any hidden stuff s.defaultReadObject(); if (loadFactor <= 0 || Float.isNaN(loadFactor)) { throw new InvalidObjectException("Illegal load factor: " + loadFactor); } // set other fields that need values table = (Entry []) EMPTY_TABLE; // Read in number of buckets s.readInt(); // ignored. // Read number of mappings int mappings = s.readInt(); if (mappings <0) throw new InvalidObjectException("Illegal mappings count: " + mappings); // capacity chosen by number of mappings and desired load (if >= 0.25) int capacity = (int) Math.min( mappings * Math.min(1 / loadFactor, 4.0f), // we have limits... HashMap.MAXIMUM_CAPACITY); // allocate the bucket array; if (mappings > 0) { inflateTable(capacity); } else { threshold = capacity; } init(); // Give subclass a chance to do its thing. // Read the keys and values, and put the mappings in the HashMap for (int i = 0; i 3.HashMap 遍历方式
HashMap的遍历方式比较单一,一般分两步走:
1. 获得Entry或key或value的Set集合;
2. 通过Iterator迭代器遍历此Set集合。
3.1遍历HashMap的Entry
//假设map是HashMap对象 //map中的key是String类型,value是Integer类型 String key = null; Integer integ = null; Iterator iter = map.entrySet().iterator();//获得Entry的Iterator while(iter.hasNext()) { Map.Entry entry = (Map.Entry)iter.next(); //先获取Entry //再获取key和value key = (String)entry.getKey(); integ = (Integer)entry.getValue(); }3.2遍历HashMap的key
//假设map是HashMap对象 //map中的key是String类型,value是Integer类型 String key = null; Integer integ = null; Iterator iter = map.keySet().iterator(); //获得Key的Iterator while (iter.hasNext()) { //直接获取key key = (String)iter.next(); //根据key,调用get方法获取value integ = (Integer)map.get(key); }3.3遍历HashMap的value
//假设map是HashMap对象 //map中的key是String类型,value是Integer类型 Integer value = null; Collection c = map.values(); Iterator iter= c.iterator();//获得value的Iterator while (iter.hasNext()) { value = (Integer)iter.next(); //直接获取 }HashMap的遍历比较简单,主要是通过Iterator迭代器来实现,但是方式有三种,都可以最终获得value值。
最后给大家分享一个链接:https://www.cs.usfca.edu/~galles/visualization/OpenHash.html 。可以很直观的看到HashMap添加和删除数据的过程。帮助我们更好的理解HashMap。
HashMap就讨论到这吧,如有错误,欢迎留言指正~
_____________________________________________________________________________________________________________________________________________________
-----乐于分享,共同进步!
-----更多文章请看:http://blog.csdn.net/eson_15