HashMap 的魅力在哪里,为什么最近面试总是被问到
共 3313字,需浏览 7分钟
·
2020-10-25 14:00
Hello,大家好,我是阿粉~
不知道大家最近有没有刷过 Java 面试题,有没有发现几乎所有面试题或多或少都会包括 HashMap 面试题。
为什么 Java 中小小的一个 HashMap,值得在面试中被反复提到?
阿粉认为是因为 HashMap 太重要了,大家回看一下自己的业务代码,是不是都有在使用 HashMap ?
即使你真的没有直接使用,但是你使用的一些中间件,或者一些开源框架,这些代码肯定使用 HashMap 完成相关逻辑。
而 HashMap 包含很多核心知识点,从这些知识点可以考察出一个面试者基本知识掌握情况。
其实就算没有面试,我们也应该或多乎或少去了解 一下 HashMap 基本实现原理。因为如果使用 HashMap 不当,很容易写出一连串 Bug,而且可能还不容易排查。
HashMap 面试题网上很多,但是其实怎么问他都离不开这些核心知识点。
这就像我们以前解答数学题一样,背后答案都是围绕核心数学公式。
所以我们只要掌握 HashMap 核心知识点,就不用再怕面试中再问到。
这里阿粉整理一下,HashMap 涉及核心知识点如下:
底层数据结构 Hash 算法 寻址算法 扩容 多线程并发
底层数据结构
数据结构与算法是最近面试越来越注重考查的一方面,尤其是对于校招来讲,这一块百分百会涉及。
而 HashMap 底层结构一下子就涉及三大数据结构,数组、链表、红黑树。
数组
HashMap 中元素实际保存在一个个 Node
中,而Node
类保存在底层数组中。
以上代码来自 JDK1.8,JDK1.7 为 Entry 类型。
实际上 Node 为 Entry 类的子类
链表
我们观察一下Node
类的数据结构,
可以发现 Node
类中有一个 next 字段,用于保存下一个 Node
元素,通过这种方式就形成一个单向的链表。
那为什么需要链表那?
这可能与下面说道 Hash算法有关,因为再好的 Hash
算法,都有可能导致不同输入产生相同的输出。
如果不同的输入得到了同一个哈希值,就发生了"哈希碰撞"(collision)。
哈希碰撞解决办法很多,这里 HashMap 就采用拉链法,即使用一个链表保存碰撞的元素的。
其他办法还有:
线行探查法 平方探查法 双散列函数探查法
红黑树
由于链表查找元素复杂度为 O(N),如果 HashMap 哈希碰撞很厉害,从而导致大部分元素落在同一个链表上,这就会导致 HashMap 性能会下降,极端一点 HashMap O(1) 查询复杂度退化成 O(N)的复杂度。
JDK1.8 中引入红黑树数据结构,当链表元素等于 8 时,链表转化为红黑树,这样查找复杂度就可以为 O(logn)。
那为什么使用红黑树,而不是使用其他二叉树,?
这是因为红黑树对于新增与删除的操作也都能保持O(logn) 新增,这样就完美兼顾了查找与新增性能。
面试题
看完这个知识点,其实可以提很多相关数据结构面试题,比如数组与链表区别。
所以看完这个,我们就需要去整理学习数据结构相关知识。
Hash 算法
这里我们仅仅介绍一下 JDK1.8 Hash 算法。
它使用 key 的 hashcode 高低 16 位异或的方式计算产生。
通过这种方式,在后面寻址算法计算时候,降低碰撞的可能性。
寻址算法
当我们计算得到 Hash 值以后,我们还需要计算这个 Hash 值在数组中的位置。
简单的方式我们可以直接使用求模的方式定位,比如
hash=1000
table.size=16
n=hash%table.size=8
但是 HashMap 采用的是另外一种更为精妙的算法:
这种方式等同求模法,但是计算性能会更好,但是这里我们需要注意了,这种方式前提为 n 也就是数组的长度必须为 2 的幂次方。
这里阿粉就不具体计算了,感兴趣的同学可以网上查找一下推导过程
面试题
为什么 HashMap 扩容都是 2 的幂次方?
看完这个,大家这个面试题了吧。
扩容
当 HashMap 元素过多时,这时必须扩容,从而保证 HashMap 查找性能。
扩容过程,我们就需要涉及以下几个核心参数:
扩展因子:loadFactor 实际元素数量:size 数组长度:capacity 扩容的阈值大小:threshold=capacity*loadFactor
当 HashMap 中元素数量大于 threshold,HashMap 就会开始扩容。
JDK1.7 扩容的时候,HashMap 每个元素将会重新计算 Hash 值,然后使用寻址算法,查找新的位置。
在 JDk1.8 中,采用了一种更精妙的算法:
其使用 e.hash & oldCap == 0, 元素要么放在原位置,要么放在原位置+原数组长度。
这里解释起来比较复杂,这里阿粉就不再详细展开,感兴趣同学可以自行查找一下相关文章。
面试题
问:加载因子为什么 0.75,而不是其他值?
答:可以说是一个经过考量的经验值。加载因子涉及扩容,下次扩容的阈值=数组桶的大小*加载因子,如果加载因子太小,这就会导致阈值太小,这就会导致比较容易发生扩容。
如果加载因子太大,那就会导致阈值太大,可能冲突会很多,导致查找效率下降。
多线程并发
好了,终于到到了最后一个知识点,多线程并发。
HashMap 在多线程并发情况下会怎么样?
这里我们需要分 JDK1.7 与 JDK1.8 来讲。
在 JDK1.7 中,由于扩容迁移时采用了头插法,从而将会导致产生死链。
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry e : table) {
while(null != e) {
Entry next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity);
// 以下代码导致死链的产生
e.next = newTable[i];
// 插入到链表头结点,
newTable[i] = e;
e = next;
}
}
}
而一旦产生死链,极有可能导致程序陷入死循环,从而导致 CPU 使用率上升。
JDK1.8 中使用尾插法,从而解决这个问题,但是依然还会存在相关问题。
比如:
并发赋值时被覆盖
并发的情况下,一个线程的赋值可能被另一个线程覆盖,这就导致对象的丢失。
size 计算问题
每次元素增加完成之后,size
将会加 1。这里采用 ++i
方法,天然的并发不安全。
面试题
关于并发,这里可以提到很多面试题。
可以是线程相关的,也可以是并发编程相关。
不过如果面试官既然已经提到这里,我们可以试着将他引导他如何解决 HashMap 并发编程的问题,从而我们下面开始回答出 ConcurrentHashMap
。
最后
经过上面一顿分析,我们可以看到小小一个 HashMap 其实涉及到很多知识点,这些点拆开来讲就可以变成一道道面试题。
另外这些点在平常编程的过程中也要特别注意,一不小心我们就会踩一个大坑。
今天这篇文章主要提及一下,HashMap 涉及的知识点,所以阿粉没有过多深入的分析,这里感兴趣的同学可以在深入学习准备一下。