HashMap 面试二十一问!
transient Node<K,V>[] table;
(JDK 1.7 之前使用头插法、JDK 1.8 使用尾插法)
(注意:当碰撞导致链表大于 TREEIFY_THRESHOLD = 8 时,就把链表转换成红黑树)
保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽可能的减少碰撞。
table 数组大小是由 capacity 这个参数确定的,默认是16,也可以构造时传入,最大限制是1<<30; loadFactor 是装载因子,主要目的是用来确认table 数组是否需要动态扩展,默认值是0.75,比如table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就需要动态扩容; 扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold) 如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。
如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面; 如果链表长度超过阀值( TREEIFY THRESHOLD==8),就把链表转成红黑树,链表长度低于6,就把红黑树转回链表; 如果结点的key已经存在,则替换其value即可; 如果集合中的键值对大于12,调用resize方法进行数组扩容。”
HashMap 参考其他问题; LinkedHashMap 保存了记录的插入顺序,在用 Iterator 遍历时,先取到的记录肯定是先插入的;遍历比 HashMap 慢; TreeMap 实现 SortMap 接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)
HashMap:在 Map 中插入、删除和定位元素时; TreeMap:在需要按自然顺序或自定义顺序遍历键的情况下; LinkedHashMap:在需要输出的顺序和输入的顺序相同的情况下。
HashMap 是线程不安全的,HashTable 是线程安全的; 由于线程安全,所以 HashTable 的效率比不上 HashMap; HashMap最多只允许一条记录的键为null,允许多条记录的值为null,而 HashTable不允许; HashMap 默认初始化数组的大小为16,HashTable 为 11,前者扩容时,扩大两倍,后者扩大两倍+1; HashMap 需要重新计算 hash 值,而 HashTable 直接使用对象的 hashCode
JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
JDK 1.8 中使用 CAS + synchronized + Node + 红黑树。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度降低了。
Segment 继承 ReentrantLock(重入锁) 用来充当锁的角色,每个 Segment 对象守护每个散列映射表的若干个桶; HashEntry 用来封装映射表的键-值对; 每个桶是由若干个 HashEntry 对象链接起来的链表
粒度降低了; JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。 在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。
private transient volatile int sizeCtl; 当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容; 当为 0 时,表示 table 还没有初始化; 当为其他正数时,表示初始化或者下一次进行扩容的大小。
Node 是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据; TreeNode 继承 Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据; TreeBin 是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。
如果没有初始化,就调用 initTable() 方法来进行初始化; 如果没有 hash 冲突就直接 CAS 无锁插入; 如果需要扩容,就先进行扩容; 如果存在 hash 冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入; 如果该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环 如果添加成功就调用 addCount() 方法统计 size,并且检查是否需要扩容。
helpTransfer():调用多个工作线程一起帮助进行扩容,这样的效率就会更高。
计算 hash 值,定位到该 table 索引位置,如果是首结点符合就返回; 如果遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find()方法,查找该结点,匹配就返回; 以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回 null。
最近给大家找了 JVM学习视频
资源,怎么领取?
扫二维码,加我微信,回复:JVM
注意,不要乱回复 没错,不是机器人 记得一定要等待,等待才有好东西
评论