HashMap夺命14问,你能坚持到第几问?
这里是码农充电第一站,回复“666”,获取一份专属大礼包 真爱,请设置“星标”或点个“在看”

当链表超过8且数组长度(数据总量)超过64才会转为红黑树
将链表转换成红黑树前会判断,如果当前数组的长度小于64,那么会选择先进行数组扩容,而不是转换为红黑树,以减少搜索时间。

hashmap存取是无序的
键和值位置都可以是null,但是键位置只能是一个null
键位置是唯一的,底层的数据结构是控制键的
jdk1.8前数据结构是:链表+数组jdk1.8之后是:数组+链表+红黑树
阈值(边界值)>8并且数组长度大于64,才将链表转换成红黑树,变成红黑树的目的是提高搜索速度,高效查询
开放定址法也称为再散列法,基本思想就是,如果p=H(key)出现冲突时,则以p为基础,再次hash,p1=H(p),如果p1再次出现冲突,则以p1为基础,以此类推,直到找到一个不冲突的哈希地址pi。因此开放定址法所需要的hash表的长度要大于等于所需要存放的元素,而且因为存在再次hash,所以只能在删除的节点上做标记,而不能真正删除节点
再哈希法(双重散列,多重散列),提供多个不同的hash函数,R1=H1(key1)发生冲突时,再计算R2=H2(key1),直到没有冲突为止。这样做虽然不易产生堆集,但增加了计算的时间。
链地址法(拉链法),将哈希值相同的元素构成一个同义词的单链表,并将单链表的头指针存放在哈希表的第i个单元中,查找、插入和删除主要在同义词链表中进行,链表法适用于经常进行插入和删除的情况。
建立公共溢出区,将哈希表分为公共表和溢出表,当溢出发生时,将所有溢出数据统一放到溢出区
开放定址法只能使用同一种hash函数进行再次hash,再哈希法可以调用多种不同的hash函数进行再次hash

平方取中法
取余数
伪随机数法
首先根据key的值计算hash值,找到该元素在数组中存储的下标
如果数组是空的,则调用resize进行初始化;
如果没有哈希冲突直接放在对应的数组下标里
如果冲突了,且key已经存在,就覆盖掉value
如果冲突后是链表结构,就判断该链表是否大于8,如果大于8并且数组容量小于64,就进行扩容;如果链表节点数量大于8并且数组的容量大于64,则将这个结构转换成红黑树;否则,链表插入键值对,若key存在,就覆盖掉value
如果冲突后,发现该节点是红黑树,就将这个节点挂在树上

final Node[] resize() { //oldTab:引用扩容前的哈希表Node[] oldTab = table; //oldCap:表示扩容前的table数组的长度int oldCap = (oldTab == null) ? 0 : oldTab.length;//获得旧哈希表的扩容阈值int oldThr = threshold;//newCap:扩容之后table数组大小//newThr:扩容之后下次触发扩容的条件int newCap, newThr = 0;//条件成立说明hashMap中的散列表已经初始化过了,是一次正常扩容if (oldCap > 0) {//判断旧的容量是否大于等于最大容量,如果是,则无法扩容,并且设置扩容条件为int最大值,//这种情况属于非常少数的情况if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}//设置newCap新容量为oldCap旧容量的二倍(<<1),并且<最大容量,而且>=16,则新阈值等于旧阈值的两倍else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1; // double threshold}//如果oldCap=0并且边界值大于0,说明散列表是null,但此时oldThr>0//说明此时hashMap的创建是通过指定的构造方法创建的,新容量直接等于阈值//1.new HashMap(intitCap,loadFactor)//2.new HashMap(initCap)//3.new HashMap(map)else if (oldThr > 0) // initial capacity was placed in thresholdnewCap = oldThr;//这种情况下oldThr=0;oldCap=0,说明没经过初始化,创建hashMap//的时候是通过new HashMap()的方式创建的else { // zero initial threshold signifies using defaultsnewCap = DEFAULT_INITIAL_CAPACITY;newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}//newThr为0时,通过newCap和loadFactor计算出一个newThrif (newThr == 0) {//容量*0.75float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);}threshold = newThr;@SuppressWarnings({"rawtypes","unchecked"})//根据上面计算出的结果创建一个更长更大的数组Node[] newTab = (Node [])new Node[newCap]; //将table指向新创建的数组table = newTab;//本次扩容之前table不为nullif (oldTab != null) {//对数组中的元素进行遍历for (int j = 0; j < oldCap; ++j) {//设置e为当前node节点Nodee; //当前桶位数据不为空,但不能知道里面是单个元素,还是链表或红黑树,//e = oldTab[j],先用e记录下当前元素if ((e = oldTab[j]) != null) {//将老数组j桶位置为空,方便回收oldTab[j] = null;//如果e节点不存在下一个节点,说明e是单个元素,则直接放置在新数组的桶位if (e.next == null)newTab[e.hash & (newCap - 1)] = e;//如果e是树节点,证明该节点处于红黑树中else if (e instanceof TreeNode)((TreeNode)e).split(this, newTab, j, oldCap); //e为链表节点,则对链表进行遍历else { // preserve order//低位链表:存放在扩容之后的数组的下标位置,与当前数组下标位置一致//loHead:低位链表头节点//loTail低位链表尾节点NodeloHead = null, loTail = null; //高位链表,存放扩容之后的数组的下标位置,=原索引+扩容之前数组容量//hiHead:高位链表头节点//hiTail:高位链表尾节点NodehiHead = null, hiTail = null; Nodenext; do {next = e.next;//oldCap为16:10000,与e.hsah做&运算可以得到高位为1还是0//高位为0,放在低位链表if ((e.hash & oldCap) == 0) {if (loTail == null)//loHead指向eloHead = e;elseloTail.next = e;loTail = e;}//高位为1,放在高位链表else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);//低位链表已成,将头节点loHead指向在原位if (loTail != null) {loTail.next = null;newTab[j] = loHead;}//高位链表已成,将头节点指向新索引if (hiTail != null) {hiTail.next = null;newTab[j + oldCap] = hiHead;}}}}}return newTab;}
保持原位置不动(新bit位为0时)
散列原索引+扩容大小的位置去(新bit位为1时)


因为String是不可变的,当创建字符串时,它的hashcode被缓存下来,不需要再次计算,相对于其他对象更快
因为获取对象的时候要用到equals()和hashCode()方法,那么键对象正确的重写这两个方法是非常重要的,这些类很规范的重写了hashCode()以及equals()方法
* Because TreeNodes are about twice the size of regular nodes, we* use them only when bins contain enough nodes to warrant use* (see TREEIFY_THRESHOLD). And when they become too small (due to* removal or resizing) they are converted back to plain bins. In* usages with well-distributed user hashCodes, tree bins are* rarely used. Ideally, under random hashCodes, the frequency of* nodes in bins follows a Poisson distribution* (http://en.wikipedia.org/wiki/Poisson_distribution) with a* parameter of about 0.5 on average for the default resizing* threshold of 0.75, although with a large variance because of* resizing granularity. Ignoring variance, the expected* occurrences of list size k are (exp(-0.5) * pow(0.5, k) /* factorial(k)).
因为树节点的大小大约是普通节点的两倍,所以我们只在箱子包含足够的节点时才使用树节点(参见TREEIFY_THRESHOLD)。当他们边的太小(由于删除或调整大小)时,就会被转换回普通的桶,在使用分布良好的hashcode时,很少使用树箱。理想情况下,在随机哈希码下,箱子中节点的频率服从泊松分布第一个值是:* 0: 0.60653066* 1: 0.30326533* 2: 0.07581633* 3: 0.01263606* 4: 0.00157952* 5: 0.00015795* 6: 0.00001316* 7: 0.00000094* 8: 0.00000006* more: less than 1 in ten million
从平均查找长度来看,红黑树的平均查找长度是logn,如果长度为8,则logn=3,而链表的平均查找长度为n/4,长度为8时,n/2=4,所以阈值8能大大提高搜索速度
当长度为6时红黑树退化为链表是因为logn=log6约等于2.6,而n/2=6/2=3,两者相差不大,而红黑树节点占用更多的内存空间,所以此时转换最为友好
多线程下扩容死循环。JDK1.7中的HashMap使用头插法插入元素,在多线程的环境下,扩容的时候有可能导致环形链表的出现,形成死循环。因此JDK1.8使用尾插法插入元素,在扩容时会保持链表元素原本的顺序,不会出现环形链表的问题
多线程的put可能导致元素的丢失。多线程同时执行put操作,如果计算出来的索引位置是相同的,那会造成前一个key被后一个key覆盖,从而导致元素的丢失。此问题在JDK1.7和JDK1.8中都存在
put和get并发时,可能导致get为null。线程1执行put时,因为元素个数超出threshold而导致rehash,线程2此时执行get,有可能导致这个问题,此问题在JDK1.7和JDK1.8中都存在
我们计算索引需要将hashCode值与length-1进行按位与运算,如果数组长度很小,比如16,这样的值和hashCode做异或实际上只有hashCode值的后4位在进行运算,hash值是一个随机值,而如果产生的hashCode值高位变化很大,而低位变化很小,那么有很大概率造成哈希冲突,所以我们为了使元素更好的散列,将hash值的高位也利用起来\


(完)
码农突围资料链接
1、卧槽!字节跳动《算法中文手册》火了,完整版 PDF 开放下载!
2、计算机基础知识总结与操作系统 PDF 下载
3、艾玛,终于来了!《LeetCode Java版题解》.PDF
4、Github 10K+,《LeetCode刷题C/C++版答案》出炉.PDF欢迎添加鱼哥个人微信:smartfish2020,进粉丝群或围观朋友圈。
