为什么要搬迁?无非是要么桶用的太多,要么太多的数据都到了overflow里面了
(相关资料图)
go针对这两种情况做出了不同的搬迁处理
bucket用太多:扩容两倍,重新hashoverflow用太多:不扩容,不重新hash,只是搬迁而已以下代码基于go1.17
桶用太多
go用了一个负载因子loadFactor来衡量。也就是如果数量count大于loadFactor * bucket数,那么就要扩容
代码如下
const ( // Maximum number of key/elem pairs a bucket can hold. bucketCntBits = 3 bucketCnt = 1 << bucketCntBits // Maximum average load of a bucket that triggers growth is 6.5. // Represent as loadFactorNum/loadFactorDen, to allow integer math. loadFactorNum = 13 loadFactorDen = 2 ) // 在元素数量大于8且元素数量大于负载因子(6.5)*桶总数,就要进行扩容 func overLoadFactor(count int, B uint8) bool { return count > bucketCnt && uintptr(count) > loadFactorNum*(bucketShift(B)/loadFactorDen) }
overflow太多
overflow太多在go中分两种情况
bucket数量小于1<<15时,overflow超过桶总数bucket数量大于1<<15时,overflow超过1<<15// overflow buckets 太多 func tooManyOverflowBuckets(noverflow uint16, B uint8) bool { if B > 15 { B = 15 } return noverflow >= uint16(1)<<(B&15) }
准备搬迁工作是由hashGrow方法完成的,他主要就是进行申请新buckets空间、初始化搬迁进度为0、将原桶标记为旧桶等
func hashGrow(t *maptype, h *hmap) { // 判断是bucket多还是overflow多,然后根据这两种情况去申请新buckets空间 bigger := uint8(1) if !overLoadFactor(h.count+1, h.B) { bigger = 0 h.flags |= sameSizeGrow } oldbuckets := h.buckets newbuckets, nextOverflow := makeBucketArray(t, h.B+bigger, nil) flags := h.flags &^ (iterator | oldIterator) if h.flags&iterator != 0 { flags |= oldIterator } // commit the grow (atomic wrt gc) // 更新最新的bucket总数、将原桶标记为旧桶(后面判断是否在搬迁就是通过这个进行判断的) h.B += bigger h.flags = flags h.oldbuckets = oldbuckets h.buckets = newbuckets // 初始化搬迁进度为0 h.nevacuate = 0 // 初始化新桶overflow数量为0 h.noverflow = 0 // 将原来extra的overflow挂载到old overflow,代表这已经是旧的了 if h.extra != nil && h.extra.overflow != nil { // Promote current overflow buckets to the old generation. if h.extra.oldoverflow != nil { throw("oldoverflow is not nil") } h.extra.oldoverflow = h.extra.overflow h.extra.overflow = nil } // extra指向下一块空闲的overflow空间 if nextOverflow != nil { if h.extra == nil { h.extra = new(mapextra) } h.extra.nextOverflow = nextOverflow } }
正式搬迁其实是在添加、删除元素的时候顺便干的。在发现搬迁的时候,就可能会做一到两次的搬迁,每次搬迁一个bucket。具体是一次还是两次就是下面的逻辑决定的
搬迁正在使用的bucket对应old bucket(如果没有搬迁过的话)
若还正在搬迁就再搬一个以加快搬迁
func growWork(t *maptype, h *hmap, bucket uintptr) { // make sure we evacuate the oldbucket corresponding // to the bucket we"re about to use evacuate(t, h, bucket&h.oldbucketmask()) // evacuate one more oldbucket to make progress on growing if h.growing() { evacuate(t, h, h.nevacuate) } }
对于不扩容的情况,可能只有一个——就是原来序号对应的桶(就是下面的x)。
对于扩容2倍的情况,显然既有可能是在原来序号对应桶,也有可能是原来序号加上扩容的桶数的序号
比如B由2变成了3,那么就要看hash第3bit到底是0还是1了,如果是001,那么和原来的一样,是序号为1的桶;如果是101,那么就是原来序号1+22(扩容桶数)=序号为5的桶
// xy contains the x and y (low and high) evacuation destinations. var xy [2]evacDst x := &xy[0] x.b = (*bmap)(add(h.buckets, oldbucket*uintptr(t.bucketsize))) x.k = add(unsafe.Pointer(x.b), dataOffset) x.e = add(x.k, bucketCnt*uintptr(t.keysize)) if !h.sameSizeGrow() { // Only calculate y pointers if we"re growing bigger. // Otherwise GC can see bad pointers. y := &xy[1] // newBit在扩容的情况下等于1<<(B-1) y.b = (*bmap)(add(h.buckets, (oldbucket+newbit)*uintptr(t.bucketsize))) y.k = add(unsafe.Pointer(y.b), dataOffset) y.e = add(y.k, bucketCnt*uintptr(t.keysize)) }
每一个bucket在溢出之后都会附接overflow桶,每个bucket包括overflow储存着8个元素
若元素tophash为空,则表示被搬迁过,继续下一个计算hash值若超出当前bucket容量,就新建一个overflow bucket将原来的key、value复制到新bucket新位置定位到下一个元素在上面的步骤计算hash值在overflow用太多的情况下是不用的
此外,在桶用太多的情况下,计算hash
for ; b != nil; b = b.overflow(t) { // 找到key开始位置k,和value开始位置e k := add(unsafe.Pointer(b), dataOffset) e := add(k, bucketCnt*uintptr(t.keysize)) // 遍历bucket中元素进行搬迁 for i := 0; i < bucketCnt; i, k, e = i+1, add(k, uintptr(t.keysize)), add(e, uintptr(t.elemsize)) { // 获取tophash,若发现是空,说明已经搬迁过。并标记为空且已搬迁 top := b.tophash[i] if isEmpty(top) { b.tophash[i] = evacuatedEmpty continue } if top < minTopHash { throw("bad map state") } k2 := k // 若key为引用类型就解引用 if t.indirectkey() { k2 = *((*unsafe.Pointer)(k2)) } // X指的就是原序号桶 // Y指的就是扩容情况下,新的最高位为1的时候应该去的桶 var useY uint8 if !h.sameSizeGrow() { // Compute hash to make our evacuation decision (whether we need // to send this key/elem to bucket x or bucket y). hash := t.hasher(k2, uintptr(h.hash0)) // 若正在迭代,且key为NaNs。是不是使用Y就取决最低位是不是1了 if h.flags&iterator != 0 && !t.reflexivekey() && !t.key.equal(k2, k2) { useY = top & 1 top = tophash(hash) } else { // 如果最高位为1,那么就应该选Y桶 if hash&newbit != 0 { useY = 1 } } } if evacuatedX+1 != evacuatedY || evacuatedX^1 != evacuatedY { throw("bad evacuatedN") } // 标记X还是Y搬迁,并依此获取到搬迁目标桶 b.tophash[i] = evacuatedX + useY dst := &xy[useY] // 若目标桶已经超出桶容量,就分配新overflow if dst.i == bucketCnt { dst.b = h.newoverflow(t, dst.b) dst.i = 0 dst.k = add(unsafe.Pointer(dst.b), dataOffset) dst.e = add(dst.k, bucketCnt*uintptr(t.keysize)) } // 更新元素目标桶对应的tophash // 采用与而非取模,应该是出于性能目的 dst.b.tophash[dst.i&(bucketCnt-1)] = top // 复制key到目标桶 if t.indirectkey() { *(*unsafe.Pointer)(dst.k) = k2 // copy pointer } else { typedmemmove(t.key, dst.k, k) // copy elem } // 复制value到目标桶 if t.indirectelem() { *(*unsafe.Pointer)(dst.e) = *(*unsafe.Pointer)(e) } else { typedmemmove(t.elem, dst.e, e) } // 更新目标桶元素数量、key、value位置 dst.i++ // These updates might push these pointers past the end of the key or elem arrays. // That"s ok, as we have the overflow pointer at the end of the bucket to protect against pointing past the end of the bucket. dst.k = add(dst.k, uintptr(t.keysize)) dst.e = add(dst.e, uintptr(t.elemsize)) } }
如果发现没有在使用旧buckets的就把原buckets中的key-value清理掉吧(tophash还是保留用来搬迁时判断状态)
// Unlink the overflow buckets & clear key/elem to help GC. if h.flags&oldIterator == 0 && t.bucket.ptrdata != 0 { // 计算当前原bucket所在的开始位置b b := add(h.oldbuckets, oldbucket*uintptr(t.bucketsize)) // Preserve b.tophash because the evacuation // state is maintained there. // 从开始位置加上key-value的偏移量,那么ptr所在的位置就是实际key-value的开始位置 ptr := add(b, dataOffset) // n是总bucket大小减去key-value的偏移量,就key-value占用空间的大小 n := uintptr(t.bucketsize) - dataOffset // 清理从ptr开始的n个字节 memclrHasPointers(ptr, n) }
在本次搬迁进度是最新进度的情况下(不是最新就让最新的去干吧)
更新进度尝试往后看1024个bucket,如果发现有搬迁完的,但是没更新进度就顺便帮别人更新了若是全部bucket都完成搬迁了,那就直接将原buckets释放掉func advanceEvacuationMark(h *hmap, t *maptype, newbit uintptr) { // 更新进度 h.nevacuate++ // Experiments suggest that 1024 is overkill by at least an order of magnitude. // Put it in there as a safeguard anyway, to ensure O(1) behavior. // 向后看,更新已经完成的进度 stop := h.nevacuate + 1024 if stop > newbit { stop = newbit } for h.nevacuate != stop && bucketEvacuated(t, h, h.nevacuate) { h.nevacuate++ } // 若是完成搬迁,就释放掉old buckets、重置搬迁状态、释放原bucket挂载到extra的overflow指针 if h.nevacuate == newbit { // newbit == # of oldbuckets // Growing is all done. Free old main bucket array. h.oldbuckets = nil // Can discard old overflow buckets as well. // If they are still referenced by an iterator, // then the iterator holds a pointers to the slice. if h.extra != nil { h.extra.oldoverflow = nil } h.flags &^= sameSizeGrow } }
到此这篇关于go map搬迁的实现的文章就介绍到这了,更多相关go map搬迁内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!