go 的运行时

方家小白

共 9967字,需浏览 20分钟

 · 2022-03-31

goroutine 定义

Goroutine 是一个与其他 goroutines 并行运行在同一地址空间的 Go 函数或方法。一个运行的程序由一个或更多个 goroutine 组成。它与线程、协程、进程等不同。它是一个 goroutine” —— Rob PikeGoroutines 在同一个用户地址空间里并行独立执行 functionschannels 则用于 goroutines 间的通信和同步访问控制。

goroutine VS thread

  • 内存占用. 创建一个 goroutine 的栈内存消耗为 2 KB(Linux AMD64 Go v1.4后),运行过程中,如果栈空间不够用,会自动进行扩容。创建一个 thread 为了尽量避免极端情况下操作系统线程栈的溢出,默认会为其分配一个较大的栈内存( 1 - 8 MB 栈内存,线程标准POSIX Thread),而且还需要一个被称为 “guard page” 的区域用于和其他 thread 的栈空间进行隔离。而栈内存空间一旦创建和初始化完成之后其大小就不能再有变化,这决定了在某些特殊场景下系统线程栈还是有溢出的风险
  • 创建/销毁,线程创建和销毀都会有巨大的消耗,是内核级的交互(trap)。POSIX 线程(定义了创建和操纵线程的一套 API) 通常是在已有的进程模型中增加的逻辑扩展,所以线程控制和进程控制很相似。而进入内核调度所消耗的性能代价比较高,开销较大。goroutine 是用户态线程,是由 go runtime 管理,创建和销毁的消耗非常小。
  • 调度切换 抛开陷入内核,线程切换会消耗 1000-1500 纳秒(上下文保存成本高,较多寄存器,公平性,复杂时间计算统计),一个纳秒平均可以执行 12-18 条指令。所以由于线程切换,执行指令的条数会减少 12000-18000goroutine 的切换约为 200ns (用户态、3个寄存器),相当于 2400-3600 条指令。因此, goroutines 切换成本比  threads 要小得多。
  • 复杂性 线程的创建和退出复杂,多个 thread 间通讯复杂(share memory)。不能大量创建线程(参考早期的 httpd),成本高,使用网络多路复用,存在大量callback(参考twemproxynginx 的代码) 。对于应用服务线程门槛高,例如需要做第三方库隔离,需要考虑引入线程池等。

Goroutine 运行原理

Go 程序的执行由两层组成:Go ProgramRuntime,即用户程序和运行时。它们之间通过函数调用来实现内存管理、channel 通信、goroutines 创建等功能。用户程序进行的系统调用都会被 Runtime 拦截,以此来帮助它进行调度以及垃圾回收相关的工作。

M:N 模型

Go runtime 会负责 goroutine 的生老病死,从创建到销毁,都一手包办。Runtime 会在程序启动的时候。Go 创建 M 个线程(CPU 执行调度的单元,内核的 task_struct),之后创建的 Ngoroutine 都会依附在这 M 个线程上执行,即 M:N 模型。它们能够同时运行,与线程类似,但相比之下非常轻量。因此,程序运行时,Goroutines的个数应该是远大于线程的个数的(phread 是内核线程?)。

同一个时刻,一个线程只能跑一个 goroutine。当 goroutine 发生阻塞 (chan阻塞、mutexsyscall 等等) 时,Go 会把当前的 goroutine 调度走,让其他 goroutine 来继续执行,而不是让线程阻塞休眠,尽可能多的分发任务出去,让 CPU 忙。

GM 调度模型

go1.2版本之前,调度模型使用的是 GM 调度模型。

G

goroutine 的缩写,每次 go func() 都代表一个 G,无限制。使用 struct runtime.g,包含了当前 goroutine 的状态、堆栈、上下文。

M

工作线程(OS thread)也被称为 Machine,使用 struct runtime.m,所有 M 是有线程栈的。如果不对该线程栈提供内存的话,系统会给该线程栈提供内存(不同操作系统提供的线程栈大小不同) 。当指定了线程栈,则 M.stack→G.stackMPC 寄存器指向 G 提供的函数,然后去执行。

GM 调度

Go 1.2前的调度器实现,限制了 Go 并发程序的伸缩性,尤其是对那些有高吞吐或并行计算需求的服务程序。每个 goroutine 对应于 runtime 中的一个抽象结构:G,而 thread 作为“物理 CPU”的存在而被抽象为一个结构:M(machine)。当 goroutine 调用了一个阻塞的系统调用,运行这个 goroutine 的线程就会被阻塞,这时至少应该再创建/唤醒一个线程来运行别的没有阻塞的 goroutine 。线程这里可以创建不止一个,可以按需不断地创建,而活跃的线程(处于非阻塞状态的线程)的最大个数存储在变量 GOMAXPROCS 中。

调用过程如下所示:

66203fb1af305bb735612207c35f88fa.webp

M 想要执行、放回 G 都必须访问全局 G 队列,并且 M 有多个,即多线程访问同一资源需要加锁进行保证互斥 / 同步,所以全局 G 队列是有互斥锁进行保护的

GM 调度模型的问题

  • 单一全局互斥锁(Sched.Lock)和集中状态存储 导致所有 goroutine 相关操作,比如:创建、结束、重新调度等都要上锁。
  • Goroutine 传递问题M 经常在 M 之间传递”可运行”的 goroutine ,这导致调度延迟增大以及额外的性能损耗(刚创建的 G 放到了全局队列,而不是本地 M 执行,不必要的开销和延迟)。
  • Per-M 持有内存缓存 (M.mcache) 每个 M 持有 mcachestackalloc ,然而只有在 M 运行 Go 代码时才需要使用的内存(每个 mcache 可以高达 2mb ),当 M 在处于 syscall 时并不需要。运行 Go 代码和阻塞在 syscallM 的比例高达1:100,造成了很大的浪费。同时内存亲缘性也较差,G 当前在 M 运行后对 M 的内存进行了预热,因为现在 G 调度到同一个 M 的概率不高,数据局部性不好。
  • 严重的线程阻塞/解锁 在系统调用的情况下,工作线程经常被阻塞和取消阻塞,这增加了很多开销。比如 M 找不到G,此时 M 就会进入频繁阻塞/唤醒来进行检查的逻辑,以便及时发现新的 G 来执行。by Dmitry Vyukov “Scalable Go Scheduler Design Doc”

GMP 调度模型

go 1.2 版本及以后,go 引入 GMP 调度模型

G

goroutine 的缩写,每次 go func() 都代表一个 G,无限制。使用 struct runtime.g,包含了当前 goroutine 的状态、堆栈、上下文。

M

工作线程(OS thread)也被称为 Machine,使用 struct runtime.m,所有 M 是有线程栈的。如果不对该线程栈提供内存的话,系统会给该线程栈提供内存(不同操作系统提供的线程栈大小不同) 。当指定了线程栈,则 M.stack→G.stackMPC 寄存器指向 G 提供的函数,然后去执行。

P

“Processor”是一个抽象的概念,并不是真正的物理 CPU

Dmitry Vyukov 的方案是引入一个结构 P,它代表了 M 所需的上下文环境,也是处理用户级代码逻辑的处理器。它负责衔接 MG 的调度上下文,将等待执行的 GM 对接。当 P 有任务时需要创建或者唤醒一个 M 来执行它队列里的任务。所以 P/M 需要进行绑定,构成一个执行单元。P 决定了并行任务的数量,可通过 runtime.GOMAXPROCS 来设定。在 Go1.5 之后 GOMAXPROCS 被默认设置可用的核数,而之前则默认为1

Runtime 起始时会启动一些 G:垃圾回收的 G,执行调度的 G,运行用户代码的 G;并且会创建一个 M 用来开始 G 的运行。随着时间的推移,更多的 G 会被创建出来,更多的 M 也会被创建出来。

Tips: https://github.com/uber-go/automaxprocsAutomatically set GOMAXPROCS to match Linux container CPU quota.mcache/stackallocM 移到了 P,而 G 队列也被分成两类,保留全局 G 队列,同时每个 P 中都会有一个本地的 G 队列。

GMP 调度

GMP调度模型, 引入了 local queue,因为 P 的存在,runtime 并不需要做一个集中式的 goroutine 调度,每一个 M 都会在 P's local queueglobal queue 或者其他 P 队列中找 G 执行,减少全局锁对性能的影响。这也是 GMP Work-stealing 调度算法的核心。注意 P 的本地 G 队列还是可能面临一个并发访问的场景,为了避免加锁,这里 P 的本地队列是一个 LockFree的队列,窃取 G 时使用 CAS 原子操作来完成。关于LockFreeCAS 的知识参见 Lock-Free

4d8d29f6abf415f5f60fc4e295edb095.webp

Work Stealing

当一个 P 执行完本地所有的 G 之后,并且全局队列为空的时候,会尝试挑选一个受害者 P ,从它的 G 队列中窃取一半的 G。否则会从全局队列中获取(当前个数/GOMAXPROCS)个 G 。为了保证公平性,从随机位置上的 P 开始,而且遍历的顺序也随机化了(选择一个小于 GOMAXPROCS ,且和它互为质数的步长),保证遍历的顺序也随机化了。

fc7a4303fc1ce6a38e765fdb7430d0a3.webp


光窃取失败时获取是不够的,可能会导致全局队列饥饿。P 的调度算法中还会每个 N 轮调度之后就去全局队列拿一个 G。如下图。

50bbb07b307c1cb2db7cc250c70a34d2.webp

谁放入的全局队列呢

有两种情况会把G放到全局队列中。

  • 新建 GP 的本地 G 队列放不下已满并达到256个的时候会放半数 G 到全局队列去。
  • 阻塞的系统调用返回时找不到空闲 P 也会放到全局队列。
143780a725e336e8ca5987a763c1a7c0.webp

SysCall 系统调用

G 调用 syscall 后会解绑 P,然后 MG 进入阻塞,而 P 此时的状态就是 syscall,表明这个 PG 正在 syscall 中,这时的 P 是不能被调度给别的 M 的。如果在短时间内阻塞的 M 就唤醒了,那么 M 会优先来重新获取这个 P,能获取到就继续绑回去,这样有利于数据的局部性。系统监视器 (system monitor),称为 sysmon,会定时扫描。在执行 syscall 时, 如果某个 PG 执行超过一个 sysmon tick(10ms),就会把他设为 idle,重新调度给需要的 M,强制解绑。

a7b384f07797bf16d3e76d0f9ad74727.webp

P3M 脱离后目前在 idle list 中等待被绑定(处于 syscall 状态)。而 syscall 结束后 M 按照如下规则执行直到满足其中一个条件:

  • 尝试获取同一个 P(P3),恢复执行 G
  • 尝试获取 idle list 中的其他空闲 P,恢复执行 G
  • 找不到空闲 P,把 G 放回 global queueM 放回到 idle list

再举一个例子:如下图.6dd39e5718e439aa32b80ddcbaf9f941.webp

  • 第一步:G35发生了系统调用,长时间没有返回。P1M 解绑。(p1 不会马上被推送到idle list, 而是经过一段时间才会推送到idle list.)
  • 第二步:G35系统调用完成,将G35推向了全局队列.
  • 第三步:G35被其他的P捞到了(可能P0经过1/61轮次正好check全局队列), 这样 G35 就可以继续执行了。

需要注意的是:当使用了 SyscallGo 无法限制 Blocked OS threads 的数量:The GOMAXPROCS variable limits the number of operating system threads that can execute user-level Go code simultaneously. There is no limit to the number of threads that can be blocked in system calls on behalf of Go code; those do not count against the GOMAXPROCS limit. This package’s GOMAXPROCS function queries and changes the limit.

Tips: 使用 syscall 写程序要认真考虑 pthread exhaust 问题。

Spining Thread.

线程自旋是相对于线程阻塞而言的,表象就是循环执行一个指定逻辑(调度逻辑,目的是不停地寻找 G)。这样做的问题显而易见,如果 G 迟迟不来,CPU 会白白浪费在这无意义的计算上。但好处也很明显,降低了 M 的上下文切换成本,提高了性能。在两个地方引入自旋:

  • 类型1: M 不带 P 的找 P 挂载(一有 P 释放就结合)
  • 类型2: MP 的找 G 运行(一有 runableG 就执行)。这种情况下会首先 按照 1/61 轮次的查询 global Queue , 然后再查看 local Queue 是否有 G. 如果没有,则去查看 Global Queue, 如果没有再去检查  net poller, 看看是否有可用的 goroutine. 为了避免过多浪费 CPU 资源,自旋的 M 最多只允许 GOMAXPROCS (Busy P)。同时当有类型1的自旋 M 存在时,类型2的自旋 M 就不阻塞,阻塞会释放 P,一释放 P 就马上被类型1的自旋 M 抢走了,没必要。

在新 G 被创建、M 进入系统调用、M 从空闲被激活这三种状态变化前,调度器会确保至少有一个自旋 M 存在(唤醒或者创建一个 M),除非没有空闲的 P

为什么呢?

  • 当新 G 创建,如果有可用 P,就意味着新 G 可以被立即执行,即便不在同一个 P 也无妨,所以我们保留一个自旋的 M(这时应该不存在类型1的自旋只有类型2的自旋)就可以保证新 G 很快被运行。
  • M 进入系统调用,意味着 M 不知道何时可以醒来,那么 M 对应的 P 中剩下的 G 就得有新的 M 来执行,所以我们保留一个自旋的 M 来执行剩下的 G(这时应该不存在类型2的自旋只有类型1的自旋)。
  • 如果 M 从空闲变成活跃,意味着可能一个处于自旋状态的 M 进入工作状态了,这时要检查并确保还有一个自旋 M 存在,以防还有 G 或者还有 P 空着的。

GMP 模型问题总结

  • 单一全局互斥锁(Sched.Lock)和集中状态存储G 被分成全局队列和 P 的本地队列,全局队列依旧是全局锁,但是使用场景明显很少,P 本地队列使用无锁队列,使用原子操作来面对可能的并发场景。
  • Goroutine 传递问题G 创建时就在 P 的本地队列,可以避免在 G 之间传递(窃取除外),GP 的数据局部性好; 当 G 开始执行了,系统调用返回后 M 会尝试获取可用 P,获取到了的话可以避免在 M 之间传递。而且优先获取调用阻塞前的 P,所以 GM 数据局部性好,GP 的数据局部性也好。
  • Per-M 持有内存缓存 (M.mcache) 内存 mcache 只存在 P 结构中,P 最多只有 GOMAXPROCS 个,远小于 M 的个数,所以内存没有过多的消耗。
  • 严重的线程阻塞/解锁 通过引入自旋,保证任何时候都有处于等待状态的自旋 M,避免在等待可用的 PG 时频繁的阻塞和唤醒。

syscon

sysmon 也叫监控线程,它无需 P 也可以运行,他是一个死循环,每20us~10ms循环一次,循环完一次就 sleep 一会,为什么会是一个变动的周期呢,主要是避免空转,如果每次循环都没什么需要做的事,那么 sleep 的时间就会加大。

  • 释放闲置超过5分钟的 span 物理内存;
  • 如果超过2分钟没有垃圾回收,强制执行;
  • 将长时间未处理的 netpoll 添加到全局队列;
  • 向长时间运行的 G 任务发出抢占调度;
  • 收回因 syscall 长时间阻塞的 P
f9ff789e4ae740be1e7617e67e1b3f39.webp

PM 上执行时间超过10mssysmon 调用 preemptoneG 标记为 stackPreempt 。因此需要在某个地方触发检测逻辑,Go 当前是在检查栈是否溢出的地方判定(morestack()),M 会保存当前 G 的上下文,重新进入调度逻辑, 这样就不会死循环了。死循环:issues/11462信号抢占:go1.14基于信号的抢占式调度实现原理异步抢占,注册 sigurg 信号,通过 sysmon 检测,对 M 对应的线程发送信号,触发注册的 handler,它往当前 GPC 中插入一条指令(调用某个方法),在处理完 handlerG 恢复后,自己把自己推到了 global queue 中。

319c17bfa87d8618be57945b47495438.webp

Network poller

Go 所有的 I/O 都是阻塞的。然后通过 goroutine + channel 来处理并发。因此所有的 IO 逻辑都是直来直去的,你不再需要回调,不再需要 future,要的仅仅是 step by step。这对于代码的可读性是很有帮助的。G 发起网络 I/O 操作也不会导致 M 被阻塞(仅阻塞G),从而不会导致大量 M 被创建出来。将异步 I/O 转换为阻塞 I/O 的部分称为 netpoller。打开或接受连接都被设置为非阻塞模式。如果你试图对其进行 I/O 操作,并且文件描述符数据还没有准备好,G 会进入 gopark 函数,将当前正在执行的 G 状态保存起来,然后切换到新的堆栈上执行新的 G

e3042a2004e7c2defacd6307978c763e.webp

那什么时候 G 被调度回来呢?

  • sysmon
  • schedule()MG 的调度函数
  • GCstart the world调用 netpoll() 在某一次调度 G 的过程中,处于就绪状态的 fd 对应的 G 就会被调度回来。Ggopark 状态:G 置为 waiting 状态,等待显示 goready 唤醒,在 poller 中用得较多,还有锁、chan 等。
ea1609b2b2c879f8e2af3eaf04ffee4a.webp

Scheduler Affinity 调度亲和性

db4366d72b1f06ec24076eb46f5819a8.webp

GM 调度器时代的,chan 操作导致的切换代价。

  • Goroutine#7 正在等待消息,阻塞在 chan。一旦收到消息,这个 goroutine 就被推到全局队列。
  • 然后,chan 推送消息,goroutine#X 将在可用线程上运行,而 goroutine#8 将阻塞在 chan
  • goroutine#7 现在在可用线程上运行。在 chan 来回通信的 goroutine 会导致频繁的 blocks,即频繁地在本地队列中重新排队。然而,由于本地队列是 FIFO 实现,如果另一个 goroutine 占用线程,unblock goroutine 不能保证尽快运行。同时 Go 亲缘性调度的一些限制:Work-stealing、系统调用。goroutine #9chan 被阻塞后恢复。但是,它必须等待#2#5#4之后才能运行。goroutine #5将阻塞其线程,从而延迟goroutine #9,并使其面临被另一个 P 窃取的风险。e5a03fc8637f8935a43d18a7858e53c5.webp

针对 communicate-and-wait 模式,进行了亲缘性调度的优化。Go 1.5P 中引入了 runnext 特殊的一个字段,可以高优先级执行 unblock Ggoroutine #9现在被标记为下一个可运行的。这种新的优先级排序允许 goroutine 在再次被阻塞之前快速运行。这一变化对运行中的标准库产生了总体上的积极影响,提高了一些包的性能。

f110a7557fbc74697733bc335220ff4b.webp

Goroutine Lifecycle

go 程序的启动

c33d3a4183e2cb1d0ae1d7e111bf322d.webp

整个程序始于一段汇编,而在随后的 runtime·rt0_go(也是汇编程序)中,会执行很多初始化工作。

4a42000a9361016fd561d1f410ab7f1d.webp
  • 绑定 m0 和 g0,m0就是程序的主线程,程序启动必然会拥有一个主线程,这个就是 m0。g0 负责调度,即 shedule() 函数。
  • 创建 P,绑定 m0 和 p0,首先会创建 GOMAXPROCS 个 P ,存储在 sched 的 空闲链表(pidle)。
  • 新建任务 g 到 p0 本地队列,m0 的 g0 会创建一个 指向 runtime.main() 的 g ,并放到 p0 的本地队列。runtime.main(): 启动 sysmon 线程;启动 GC 协程;执行 init,即代码中的各种 init 函数;执行 main.main 函数。

Os Thread 创建

准备运行的新 goroutine 将唤醒 P 以更好地分发工作。这个 P 将创建一个与之关联的 M 绑定到一个 OS thread。69dbec0715ec9fa0275d95bacadd419e.webpdc0bb6613defb3cfe05fd42889a7c4fb.webp

go func() 中 触发 Wakeup 唤醒机制:有空闲的 P 而没有在 spinning 状态的 M 时候, 需要去唤醒一个空闲(睡眠)的 M 或者新建一个。当线程首次创建时,会执行一个特殊的 G,即 g0,它负责管理和调度 G76a47b3464fd5c4949de978fe6f8636a.webp

特殊的g0

Go 基于两种断点将 G 调度到线程上:

  • G 阻塞时:系统调用、互斥锁或 chan。阻塞的 G 进入睡眠模式/进入队列,并允许 Go 安排和运行等待其他的 G
  • 在函数调用期间,如果 G 必须扩展其堆栈。这个断点允许 Go 调度另一个 G 并避免运行 G 占用 CPU。在这两种情况下,运行调度程序的 g0 将当前 G 替换为另一个 G,即 ready to run。然后,选择的 G 替换 g0 并在线程上运行。与常规 G 相反,g0 有一个固定和更大的栈。
  • Defer 函数的分配
  • GC 收集,比如 STW、扫描 G 的堆栈和标记、清除操作
  • 栈扩容,当需要的时候,由 g0 进行扩栈操作
292903f756ffaf4708744a2800218ba2.webp

Schedule

Go 中,G 的切换相当轻便,其中需要保存的状态仅仅涉及以下两个:

  • Goroutine 在停止运行前执行的指令,程序当前要运行的指令是记录在程序计数器(PC)中的, G 稍后将在同一指令处恢复运行;
  • G 的堆栈,以便在再次运行时还原局部变量;在切换之前,堆栈将被保存,以便在 G 再次运行时进行恢复:

6851b93bbab45c12d2e137a16ecdfa34.webpa4e4d4bee2b3fa23db47c62f7503bb65.webp64ebb5202c0f37b696c477af9fc3b06c.webp4c0d7ab03bcba9a410fcc397e42f6853.webp

gg0 或从 g0g 的切换是相当迅速的,它们只包含少量固定的指令(9-10ns)。相反,对于调度阶段,调度程序需要检查许多资源以便确定下一个要运行的 G。当前 g 阻塞在 chan 上并切换到 g0

  • 1、PC 和堆栈指针一起保存在内部结构中;
  • 2、将 g0 设置为正在运行的 goroutine;
  • 3、g0 的堆栈替换当前堆栈;

g0 寻找新的 Goroutine 来运行g0 使用所选的 Goroutine 进行切换:

  • 1、PC 和堆栈指针是从其内部结构中获取的;
  • 2、程序跳转到对应的 PC 地址;
eb3efe30f120a368a74660a221aae0da.webp

Goroutine Recycle

goroutine重用

G 很容易创建,栈很小以及快速的上下文切换。基于这些原因,开发人员非常喜欢并使用它们。然而,一个产生许多 shortliveG 的程序将花费相当长的时间来创建和销毁它们。每个 P 维护一个 freelist G,保持这个列表是本地的,这样做的好处是不使用任何锁来 push/get 一个空闲的 G。当 G 退出当前工作时,它将被 push 到这个空闲列表中。

94f0940b37a41ff7c3544b074bc820f5.webp

为了更好地分发空闲的 G ,调度器也有自己的列表。它实际上有两个列表:一个包含已分配栈的 G,另一个包含释放过堆栈的 G(无栈)。锁保护 central list,因为任何 M 都可以访问它。当本地列表长度超过64时,调度程序持有的列表从 P 获取 G。然后一半的 G 将移动到中心列表(central list)。需求回收 G 是一种节省分配成本的好方法。但是,由于堆栈是动态增长的,现有的G 最终可能会有一个大栈。因此,当堆栈增长(即超过2K)时,Go 不会保留这些栈。

5a6cbd7eaad94c9463756806645f3cf6.webp

最后

希望和你一起遇见更好的自己

看到这里啦,就点个关注再走吧~

浏览 30
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报