0%

上一篇文章 goroutine 调度概览 大概介绍了 Goroutine 调度的基本情况,这篇来看个具体的例子:网络调用。

协作式主动让出执行权

Goroutine 很多时候都是通过主动让出执行权的,主动让出的执行效率可以更高;就像自己主动搬砖和被人催着搬砖一样。
除了 runtime.Gosched 这种 go 代码里显式指定让出的(实际上应该会比较少用到),更多时候是由某些行为底层触发,网络调用则是一个典型的例子。

网络调用

对于网络的非阻塞实现,linux 下最常见的就是用 epoll,我们通过例子来看看 go 语言如何在语言级别把 epoll 的细节屏蔽。

以下是个简单例子,向 example.com:80 发起了一个 HTTP GET 请求,然后读取第一行响应。

1
2
3
4
5
6
7
8
9
10
11
12
conn, err := net.Dial("tcp", "example.com:80")
if err != nil {
// handle err
}
fmt.Fprintf(conn, "GET / HTTP/1.0\r\n\r\n")

line, err := bufio.NewReader(conn).ReadString('\n')
if err != nil {
// handle err
}

fmt.Println("line: ", line)

挂起

我们重点介绍发送之后,第一次读取数据的行为

  1. 因为刚发送完,此时立马读取,肯定读不到数据,syscall.Read 会返回 EAGAIN
  2. 接下来会调用 gopark 将当前 Goroutine 挂起

通过 gdb 可以看到这样的一个调用栈:

1
2
3
4
5
6
7
8
9
#0  runtime.gopark (unlockf={void (runtime.g *, void *, bool *)} 0x0, lock=0x7fffd00a0700, reason=2 '\002', traceEv=27 '\033', traceskip=5) at /home/dou/work/go/src/runtime/proc.go:349
#1 0x000000000042e5fe in runtime.netpollblock (pd=<optimized out>, mode=<optimized out>, waitio=<optimized out>) at /home/dou/work/go/src/runtime/netpoll.go:445
#2 0x000000000045c489 in internal/poll.runtime_pollWait (pd=<optimized out>, mode=140736683706112) at /home/dou/work/go/src/runtime/netpoll.go:229
#3 0x000000000048b0b2 in internal/poll.(*pollDesc).wait (pd=<optimized out>, mode=140736683706112, isFile=2) at /home/dou/work/go/src/internal/poll/fd_poll_runtime.go:84
#4 0x000000000048ba1a in internal/poll.(*pollDesc).waitRead (isFile=2, pd=<optimized out>) at /home/dou/work/go/src/internal/poll/fd_poll_runtime.go:89
#5 internal/poll.(*FD).Read (fd=0xc0001a8000, p=..., ~r1=<optimized out>, ~r2=...) at /home/dou/work/go/src/internal/poll/fd_unix.go:167
#6 0x00000000004ac629 in net.(*netFD).Read (fd=0xc0001a8000, p=...) at /home/dou/work/go/src/net/fd_posix.go:56
#7 0x00000000004b6965 in net.(*conn).Read (c=0xc000094008, b=...) at /home/dou/work/go/src/net/net.go:183
#8 0x00000000004c1d2e in net.(*TCPConn).Read (b=...) at <autogenerated>:1

补充一点:gopark 的核心逻辑是,切换到 g0 栈,执行 park_m。在 park_m (g0 栈)中再把当前 G 挂起。

恢复执行

上一步的 park_m 函数,除了会挂起当前 G,另外一个重要的任务就是执行 schedule 函数,挑一个新的 G 开始运行。

在上一篇介绍过,挑选一个新的 G 的过程中,就有 检查 netpoll 这一步。
我们可以在 gdb 中看到如下的调用栈:

1
2
3
4
5
#0  runtime.netpollready (toRun=0x7fffcaffc6c8, pd=0x7fffd00606d8, mode=119) at /home/dou/work/go/src/runtime/netpoll.go:372
#1 0x000000000042f057 in runtime.netpoll (delay=<optimized out>) at /home/dou/work/go/src/runtime/netpoll_epoll.go:176
#2 0x000000000043abd3 in runtime.findrunnable () at /home/dou/work/go/src/runtime/proc.go:2947
#3 0x000000000043bdd9 in runtime.schedule () at /home/dou/work/go/src/runtime/proc.go:3367
#4 0x000000000043c32d in runtime.park_m (gp=0xc000202000) at /home/dou/work/go/src/runtime/proc.go:3516

netpoll 中的核心逻辑即是调用 epoll_wait,获取一批已经准备就绪的 events,恢复这批 G 到 runable 状态,并运行第一个 G。

总结

对于非阻塞网络的实现,核心点是 EAGAINepoll_wait
go 语言把这个细节隐藏到了语言/标准库内部,确实很大程度的降低了程序员的心智负担。

如上文 go 语言学习 中提到,GMP 是 go 语言的一个核心设计。对于 Goroutine 的调度机制,一直非常好奇,最近翻阅了源码,也做了一些小实验,算是有了个基本的理解,解释了心中的很多疑惑。

GMP 解释

G:Goroutine,用户态协程,表示一个执行任务,实际上是一个 Goroutine 数据结构 + 一段连续的内存当做 stack
M:Machine,实际是一个系统线程,操作系统调度的最小单元
P:Processor,虚拟处理器,实际上只是 runtime 中的数据结构,用于限制当前正在运行的 Goroutine 数量

几个知识点:

  1. P 通常跟 CPU 核心数一样多,表示当前这个 go 程序可以占用几个 CPU 核心。
  2. P 是需要绑定一个实际的 M 才能运行,毕竟系统线程才能真正的在物理 CPU 上执行任务。
  3. 但是,M 通常会比 P 更多一些,比如碰到阻塞的操作,P 就会和 M 分离,如果有很多阻塞任务,M 就可能会非常多。

为什么需要调度

Goroutine 虽然底层 主要 是协作式的调度,但是调度的细节对于使用者则完全屏蔽了。
从这个角度看,Goroutine 很像操作系统的线程,即使底层有调度切换,但是让使用者认为 Goroutine/系统线程 是一直在运行的。

对于使用者而言,可以不关心,Goroutine 是何时被挂起的,又是何时恢复执行的(当然,为了写出更好的代码,我们肯定还是需要了解这些实现机制的)。

对于上层屏蔽了,就需要语言层面来处理了,也就有 runtime 里的调度机制了。

1
go 语言暴露的 runtime.Gosched 只是让当前 Goroutine 临时让出执行权,避免大计算任务的长期阻塞,并不是严格的挂起。跟 OpenResty 中 ngx.sleep(0) 的作用一样。

对比 Lua

相对于 Lua 这门嵌入式语言而言,则是完全把控制权交给了宿主程序。
具体来说,Lua 对外提供了挂起 yield 和 恢复 resume 的 API,由上层使用者来控制 coroutine 的执行。
当然,虽然需要使用者操心的事情更多,不过在嵌入式场景中,对于宿主程序某些方面反而更友好,可以更精确的控制程序的执行。
比如,并发协程的调度优先级,对于协程中执行的不同类型任务,我们希望可以有不同的优先级。
但是,Goroutine 是完全被平等对待的,上层没有办法控制调度的优先级;Lua 里则不存在这个问题,直接通过 lua_resume 恢复执行某个协程即可。

对比 OpenResty uthread

Goroutine 的使用体验 和 OpenResty 中的 uthread 使用非常类似,同步非阻塞,即:以同步的方式写代码,实际上是则是以异步非阻塞的方式执行。

Goroutine 是由 runtime 来驱动运行,OpenResty uthread 则是由 Nginx 的事件循环来驱动运行。
当然,实际上这两还是有些区别的,Goroutine 抽象在语言层面,对于很多的非网络系统调用,都实现了非阻塞的调度(虽然比较重,底层还是通过堆线程来实现);OpenResty uthread 则只是对网络调用封装了同步非阻塞,对于其他的阻塞式系统调用,还是会阻塞当前 worker 进程的。

调度器的任务

对于协程调度而言,核心就两个任务:

  1. 挂起
  2. 恢复

挂起的核心在于选择时间点,Goroutine 有这么几种方式会挂起:

  1. 协作式的主动让出
  2. 进入系统调用发生了阻塞,被监控线程强制切走
  3. Goroutine 执行时间太长,被中断信号切走

恢复逻辑则比较的固定,按照这个顺序查找可以执行的 Gorounine (runable)。

  1. P.runnext 指向的 G
  2. 本地队列
  3. 全局队列
  4. 检查 netpoll(timeout = 0)
  5. 从其他 P 去偷 G
  6. 检查 netpoll (timeout > 0)

对照如下经典的 GMP 模型图,会更好理解一些。

GMP 模型图

Goroutine 切换发生了什么

首先 Go 编译生成的机器指令,操作 Goroutine 栈的方式,跟 C 语言很像。
比如在 X64 CPU 架构下,通过 rsp 寄存器来指向栈顶,然后通过 rsp 的相对位置来操作栈内存。
所以,在 Goroutine 切换的时候,肯定会发生栈切换。

对比之下,Lua coroutine 的栈,则只是纯粹的一段内存,Lua coroutine 切换,并不需要改变 rsp 的值。

另外,每个 M 都有一个固定的 g0 栈,Goroutine 的切换实际上存在两次切栈操作,比如 g1 切换到 g2 的时候,会发生:

  1. g1 让出执行权,切换到 g0 栈
  2. g0 执行 scheduler,找到 g2 开始执行

因为 scheduler 的逻辑还是比较复杂的,不适合在 g1 上执行了。
要在 g1 上执行的话,至少需要在 g1 上预留比较多的空闲栈内存空间,否则就可能会栈溢出了。
当然 g0 还有其他用处,这个以后再说。

实际案例

准备了两个小例子,实际看看 Goroutine 是如何切换的。

  1. 网络调用
  2. 调用 C 函数

且听下回分解。

go 语言火了有很久了,一直也没有认真的学习,刚好赶上最近的空档期,完整了学习了一遍。
肯定是谈不上深入了,不过对其也有了大致全面的认识,也有比较多的感触,所以有了这篇文章。

前言

在动手记录这篇文章时,我并没有实际的 go 语言开发经历,只是阅读了两本书,结合了自己的理解,记录下的这些感悟。
应该会有不少理解不到位,甚至南辕北辙的点,这些留到以后来纠正吧。

编程语言的设计,是抽象和折中的艺术

首先,最大的感悟就是这句话,应该是原创,吃饭的时候自己悟出来的一句话。

抽象非常重要,对于要用这门语言来解决的问题,语言层面合适的抽象,会让语言的使用者非常舒服。
比如,很多领域内的小语言,DSL,会让使用者感觉非常自然。

当然,抽象也并不是没有代价的,这种时候就考验折中的能力了。

GMP

GMP 模型,是 go 对并发模型的抽象,确实挺好的,虽然 主要 也是协作式的调度方式,但是抽象到了语言/标准库层面,所以用起来更自然一些,而且还一定程度的屏蔽了多线程的并发,对于构建高并发业务系统,确实挺方便的。

G 表示协程,M 表示线程,P 表示逻辑处理器;仔细想想确实很巧。

协程

首先要拼高并发,肯定得是用户态协程,这是很多语言早就实践过的。

go 语言的协程,比操作系统线程肯定是要轻量很多,不过还是相对 Lua 的协程而言,还是要略重一些的。
一个 Goroutine 的初始 stack size 是 2K,Lua coroutine 的 stack size 只要几百个字节。

调度

为了很自然的将一些正在阻塞的协程挂起,go 语言有一个设计精巧,也比较重的协程调度功能。
而且还实现了抢占式的协程调度,功能确实很棒,不过应该也是比较重的实现,以后找时间仔细分析下性能。

简而言之,就是将重要的 G 分配到 P 上去运行,然后 P 则依托一个实际的 M 来运行。

至于具体实现上,有一些很重要的优化,比如每个 P 都有本地队列,都是为了让这个关键的 scheduler 可以运行的更快。

通道

语言层面抽象出来的,协程间的通讯机制,这个可以很大程度的屏蔽了跨进程通讯的事实。很大程度的降低了程序员的心智负担。
GMP + CPS 感觉真的很棒。

接口

go 抽象了接口机制,对我而言,感觉还挺新颖的。
等后面动手实践的时候,好好体验下的。

GC

go 作为静态语言,还提供了垃圾回收机制,很早以前的时候没有想明白,感觉怪怪的。
虽然后来也好像慢慢懂了点,不过也没有去细想,现在感觉应该是懂了,不会觉得怪异了。

以我的理解,核心就两个点:

  1. 引入 GC 机制,不再需要显式的释放内存,是可以降低程序员管理内存的心智负担
  2. 只要 GC 对象之间的引用关系,就可以完成垃圾回收;指针也可以产生一个引用关系。

另外,go 语言将小对象,直接放到栈上面,也是挺新颖的一个搞法,比较好的减少了临时小对象数量。对于垃圾回收器而言,大量的临时小对象,也是一个很重的负担。
印象中,好像其他新语言,也会有类似这样的搞法,感觉是个好路子。

似曾相识

在学习 go 语言的时候,有些地方让我感觉似曾相识。

打个岔,感慨一下,人类的进步就是这么一步步的往前拱:站在巨人的肩膀上,再上一些自己的创新。

举几个例子:

  1. CPU profile 采样频率是 100HZ
  2. 默认的 GC 启动条件是当前 GC size 达到上一次完成后的 GC size 的两倍

其他

语言的设计仅仅是偏理论上的一面,语言的实现功底也是决定成功的重要一环,后面有计划学习下 go 语言的源码。

一个语言想要成功,除了设计要足够好,还需要长期持续的投入,即使有眼前的苟且,也需要让使用者能看到远方的未来。这个时候还是得感慨一下,有 Google 支持的巨大优势了。

前言

最近被拉去分析了 kubernetes ingress-nginx 的一个 segfault issue,最后发现是我自己多年前手残留下的低级 bug (果然出来混迟早是要还的)。

虽然是一个足以写进教科书的低级 bug(没有判断边界,数组越界),但是有一些排查方法,还是值得分享一下的。谁还没有个手残的时候呢,汗。

问题描述

所有信息都在 kubernetes ingress-nginx 的这个 issue 里:https://github.com/kubernetes/ingress-nginx/issues/6896

汇总下来,有这么几个信息:

  1. 从 0.43.0 升级到 0.44.0,会偶尔出现 Segmentation Fault
  2. 从调用栈看,是从 LuaJIT 通过 ffi 调用 C

segfault

对于 segfault 的错误,可以分两种情况:

  1. bug 代码,产生了一个非法的读/写,这个时候立即就产生了 segfault
  2. bug 代码,产生了一个错误的写,但是并没有发生 sefault,而是后续没有 bug 的代码,在执行过程中,因为之前写入的错误数据,从而触发了 segfault

对于 1,容易复现,也很好搞定,直接根据调用栈查代码就行,多见于开发环境。
对于 2,其中包含了两个时间点:
1> bug 代码产生了错误的写
2> 正常代码使用了错误的数据,产生了 segfault

如果运气好的话,这两个时间点,离得不远,还是比较好排查的。
但是,这两个时间点离得特别远的话,那就很难查了,特别还有可能是连环 bug。因为理论上来而言,所有其他所有代码都值得怀疑,只要是写的进程内的合法地址,操作系统就不会抱怨。

不过,好在,实际上而言,也还是有一些规律可循。

分析过程

一开始,尝试让反馈问题的人提供 core 文件,但是争取了一两周,包括提供了分析思路以表诚意,甚至愿意签 NDA,并没有人愿意提供。

缺失的调用栈

回到问题本身,issue 中有提供调用栈,其中关键的是这两帧:

1
2
#2  __libc_free (p=0x7f03273ec4d0) at src/malloc/mallocng/free.c:110
#3 0x00007f0327811f7b in lj_vm_ffi_call () from /usr/local/lib/libluajit-5.1.so.2

直接从调用栈来看,这个表示 ffi 在调用 free 函数,但是以我的个人经验而言,通常我们并不会通过 ffi 直接调用 free,所以怀疑是中间有调用栈缺失了。

lj_vm_ffi_call 是 LuaJIT 中手写汇编实现的一个函数,通过 disas 分析其中的机器指令,可以看到这个关键指令:

1
call   QWORD PTR [rbx]

同时由于 rbx 是 callee-saved 寄存器,我们通过 frame 3,gdb 会帮我们恢复出当时 rbx 的值,然后我们通过 info symbol *(long *)$rbx 就可以知道 ffi 当时在调用哪个函数。当时得到的反馈信息:

1
2
3
4
5
(gdb) frame 3
#3 0x00007f260c3cdf7b in lj_vm_ffi_call () from /usr/local/lib/libluajit-5.1.so.2

(gdb) info symbol *(long *)$rbx
chash_point_sort in section .text of /usr/local/lib/lua/librestychash.so

好家伙,chash_point_sort 不是我写的 resty.chash 里的函数么,更得抓紧修复了。

分析代码

通过看代码, chash_point_sort 中有且仅有一处调用 free,所以 gdb 显示的调用栈也是对的,只是少了中间关键的一帧。
同时,发生错误的范围,基本可以锁定在 chash_point_sort 的内部了。这个函数内申请了一块临时内存,又在最后阶段完成了释放。

这个属于运气比较好,写坏内存的点,与发生 segfault 的点,离得不远,发生在同一个函数内。同时因为是我自己写的代码,虽然年代有些久远,不过也还是能想得起来,所以最终没花多久就修复了,倒是为了构造可以在 ci 上跑的测试,花了不少时间。

具体的 bug 其实很简单,没有判断边界,数组越界了,写坏了内存。

细究根源

至此,肯定是修了一个 bug,只是还需要搞清楚,为什么以前的版本没有发生 segfault,因为 resty.chash 这期间也没有变更。

通过追踪 musl-libc 的变更历史,发现 musl-libc 去年搞了一个新的 malloc 实现,在 chunk 的末尾放了一些元数据,这个会更容易让 chash_point_sort 触发越界的条件 ,而且因为是新实现的,加了非常多的 assert 检查,所以就暴露了这个 bug。

仔细想想,其实有些时候系统的稳定性,并没有我们以为的那么好。这么低级的 bug,竟然在那么多的生产环境跑了这么多年了。

总结

有一些经验,还是值得记录一下的:

  1. 调用栈不全/准的时候,分析下机器指令,充分利用好寄存器的数据,尤其是那些 callee-saved
  2. 排查问题,多自己推理,多数时候盯着代码看,是更高效的笨办法。
    之前看过云风的一篇文章,他是推荐尽量不要依赖调试器,多让代码在脑子里运行,确实是有道理的。
  3. 写代码的时候,必要的 assert 还是需要的,这是个好习惯。
    之前分析 LuaJIT segfault 的时候,看 LuaJIT 代码中也充斥着很多关键的 assert。

接触开源

我从接触计算机开始,就接触到了开源。

大一在宏福校区,那会算是北京正经的郊区,周边确实没啥好玩的,大家都热衷于参加各种社团活动。我也不例外,不过我参加的活动中,开源相关的活动更多一些,校内校外的都热衷于参加。

当时参加的活动中,给我印象最深刻的有三个人。

邓楠,应该是比我大两届的师兄,很牛的技术极客。当时在校就可以接一些知名互联网公司项目,能够赚外快,很是羡慕。他也很喜欢开讲座,搞分享。我记得当时他有一个讲座,分享的大致是信任链这么个主题,多年后的我回想起来,那应该就是区块链的分享。

王开源,他来学校搞了一次分享,印象中 500 人的会议室都挤满了。讲起当时比尔盖茨来中国演讲的时候,他跑上去砸场子,也让我见识了还有这样为开源疯狂的人。

Richard Stallman,长胡子美国大叔,自由软件的发起人,随身背着个小笔记本,挂在肚子前面敲代码,据说 CPU 是龙芯的。参加过两次他的分享会,还买过一本他的书,有他的亲笔签名(happy hacking)。当时问过他一个问题,“opensource” 和 “free software” 会共存么?他的回答也很直白,只有 “free software” 才有未来,这大叔对自由的追求真的是非常极致 …

除此之外,还记得北师大的一个女老师,貌似是 ”庄“ 老师,还有一个在中国上班的”挪威“程序员…

不过,当时参加的分享活动,讨论的比较多的是意识形态上的东西,很少有具体的适合我参加的开源项目(主要也是当时自己太弱)。

Open Source VS Free Software

首先 Open Source 与 Free Software 肯定还是有区别的。虽然现在提 Free Software 的人明显不多了,但是从根上来说,还是有些区别的。

以我浅显的理解,Free Software 的初衷是技术极客对于自由的极致追求。
设想一下,如果自己使用的商业软件有不爽的地方,然而受制于商业软件的版权限制,又不可以自己破解修改,对于技术大神来说,我想应该是吃了苍蝇的感觉,而且可能是每天都需要吃,确实很让人沮丧。

Free software 具体点来说,是指 GPL 严格的许可证协议。这种协议是带病毒传播性质的,如果对使用这种协议的软件做了修改,那么修改本身也必须继承相同的协议,也必须开源。
这一点,很大程度上限制了 GPL 软件的商业化运作。实际上,使用 GPL 协议的软件,商业化成功的模式,估计也只有红帽这一个典型。

Open Source 相对来说就宽松多了,除了 GPL 这种严格的许可证协议之外,还有很多宽松很多的许可证协议。大部分的协议,允许你自己的修改,并不开源,这样就非常适合,使用开源软件搞一个定制版的商业软件,在商业上的想象空间就大很多了。

对开源的理解

不管是 Free Software 也好,Open Source 也罢,我觉得其内核还是非常吸引人的。印象中,当年在讨论开源意识形态流的时候,可是跟切格瓦拉,共产主义,天下大同,这种高大上的词汇一起讨论的。

人人为我,我为人人,分享精神,我觉得是开源精神的内核。

这也是为什么开源可以「共产主义」拉上关系的基础,参与开源项目的人,得是有助人为乐的精神,不能只想着自己的营营小利。

开源是一种开放的协作方式,参与者们通常是自愿加入,秉着分享互助的精神,一起参与项目的建设。这个协作方式,可以对抗内卷,很好的提高整个社会的生产效率。

开源商业化

那么搞开源的都是活雷锋么?肯定也不是,参与开源项目也是有很多现实收益的,自我价值的实现,商业利益的实现,都可以通过开源项目来达成。简单点来说,开源也是一个名利场,追名逐利才更是人性使然。

说到开源商业化,肯定有人吐槽这种粘上了铜臭味的开源,吐槽开源不够纯粹了,背地里还是图着自己的商业利益。

依我之见,开源商业化肯定是好事,有资本/商业利益的驱动,可以更快的促进整个开源的发展。对于大多数的开源项目,没有商业公司在支持,估计大概率只能靠零星的赞助维持,对于项目的维护者而言,估计也大部分只有“名”上的收益,没有一点用爱发电的精神,其实比较难长期的维持。

至于商业公司的谋利属性,我们理解就行。就市场需求而言,如果有公司使用了一个开源项目,这个公司其实是有足够的动力,付费来购买商业公司的支持,毕竟对于非本公司主营业务的,成熟的商业逻辑肯定是花钱搞定,只要价钱合理。

纵观现在的开源项目,似乎也只有比较底层的基础设施,比如 Linux 操作系统这种的,才会走到捐款 + 基金会这种形式。这种基金会充当了中间角色,不受某一家公司的控制,也没有了盈利属性,就是大家共同协作一个载体。

追逐商业利益,与开源的内在精神,其实并不冲突,是可以共存促进的。一定要那么”纯粹“的开源么?我觉得大可不必。

背景

WebAssembly 简称 Wasm,最早起源于前端技术。
即使在有了 JIT 加持之后,js 在大计算量的场景,性能还是不够理想,经过了 asm.js 的尝试,最后以 Wasm 定型,得到了四大浏览器的支持。
最初的 Wasm 主要是应用于 WEB 应用,后续随着 WASI 的诞生,又扩展到了更宽的场景,比如服务端技术。

Wasm 是什么

Wasm 并不是一门常规意义上的语言,而只是一个基于栈式虚拟机的二进制指令标准。
比如,Lua 是一门语言,因为其具有可编程能力,而 Lua 字节码,则几乎不具备可编程能力(一定要手写也不是不可以)。
Wasm 就类似于 Lua 字节码这种位置,只是它更相对更底层一些,适用范围也更广。

Wasm 设计目的,就是成为其他语言的编译目标,目前支持比较好的有 C/Rust 等。

Wasm 如何运行

由于 Wasm 只是一个标准,具体的执行是由虚拟机来完成的,而虚拟机的实现就又有很多个,类似于官方 Lua 与 LuaJIT 这种。
具体的运行方式也有多种:interpreter,JIT,AOT。比较有意思的是,在 Wasm 圈里,似乎 AOT 技术相对其他语言更流行一些。

具体的虚拟机实现细节,我们可以以后再介绍了。

Wasm 的特点

Wasm 有优秀的设计理念,有其明显的优势,不过优势有时候也需要付出一些代价。

高性能

这是 Wasm 的设计初衷之一,是有接近 native 性能的,当然也依赖虚拟机的具体实现。
从指令设计上而言,Wasm 足够底层,简单,所以理论上是可以接近 native 性能的。

内存安全

Wasm 被设计为内存安全的,尤其在 WEB 场景,很多时候执行的代码都不知道来自谁,底层安全是很重要的。
具体而言,Wasm 的内存模型很简单,只有一个 linear memory,Wasm 能操作的内存的读写都发生在这个 memory 范围内。
Wasm 是不会出现指针飞来飞去的,有的只是 offset,目的是恶意的 Wasm 执行的时候,也不可能读写进程内任意的数据内存。

当然咯,代价也是有的,灵活性会有一些折扣,很多时候需要多一次内存拷贝。

沙箱

Wasm 是运行在一个沙箱环境,其所具备的能力是受限的,需要的一些外部调用,是外面的宿主提供给它的。
比如 Wasm 需要读文件,那也是需要运行 Wasm 的宿主环境,给其提供对应的 API 才可以的。

跨语言

跨语言是 Wasm 的一大亮点,依我之见,可以某种程度上的降低语言之争(语言之争,其实也是个蛮有意思的话题,得空可以聊一聊)。

Wasm 作为中间的标准产物,可以对接两头的开发者:

  1. 上层的应用开发者
  2. 底层的服务开发者

底层服务开发者,只需要为其提供运行 Wasm 的沙箱环境,包括运行 Wasm 的虚拟机,以及暴露服务的某些能力在沙箱中。
上层应用开发者,则可以选择自己喜欢的语言,以及对应语言的 Wasm-SDK(对应暴露在沙箱中的服务基础能力)即可生成 Wasm。

理论上是一个美好的方案。

最后

Wasm 也是一种嵌入式的方案,某种程度上跟 Lua 很类似。

依我之见,少年期的 Wasm 还有比较长的一段路要走

  1. 底层的能力还有待增强,比如带 GC 的语言,生成 Wasm 就是一个难题。
  2. 周边生态也有待发展,目前还属于初级阶段,虽然能看到一些设计雏形。

上一篇 我们说到,JIT 是 LuaJIT 的性能杀手锏。这篇我们就介绍一下 JIT。

Just-in-time 即时编译技术,在 LuaJIT 里的具体使用是:将 Lua byte code 即时编译为机器指令,也就是不再需要解释执行 Lua bytecode,直接执行即时编译产生的机器指令。
也就是说,解释模式,和 JIT 模式的输入源是一样的,都是 Lua byte code。相同的字节码输入,两种模式却可以有跑出明显的性能区别(一个数量级的区别,也是比较常见的),这个还是很需要功力的。

JIT 可以分为这么几个步骤:

  1. 计数,统计有哪些热代码
  2. 录制,录制热代码路径,生成 SSA IR code
  3. 生成,SSA IR code 优化生成机器指令
  4. 执行新生成的机器指令

JIT 编译对象

在进一步展开之前,先介绍一个基本概念。
LuaJIT 的 JIT 是基于 trace 的,意味着一段 byte code 执行流,而且是可以跨越函数的。
相比较而言,Java 的 JIT 是基于 method 的,虽然也有函数内联,但是限制比较大(只有很小的函数才会被内联 JIT 编译)。

个人认为,tracing JIT 在理论上来说,可以比 method base JIT 有更大的发挥空间,如果只是某些 case 跑分,应该可以更厉害。
不过工程实现复杂程度要高不少,所以最终的实际工业效果,也难说(影响 JIT 效果的,还有很多其他因素,比如优化器等等)。

比如这个小示例:

1
2
3
4
5
6
7
8
9
10
11
12
local debug = false
local function bar()
return 1
end

local function foo()
if debug then
print("some debug log works")
end

return bar() + 1
end

foo() 函数被 JIT 编译的时候,有两个明显的优点:

  1. print("some debug log works") 这一行因为没有真实的执行,所以 trace 字节流里不会有它,也就是压根不会为其生成机器码,所以生成的机器码可以更小(生成的机器码越小,CPU cache 命中率越高)
  2. bar() 会被内联编译,并不会有函数调用的开销(是的,在机器指令层面,函数调用的开销其实也需要考量的)

计数

接下来,我们挨个介绍 JIT 的各个阶段。
计数比较容易理解,JIT 的一大特点即是:只编译热点代码(全盘编译的话,也就成了 AOT 了)。

通常的 JIT 计数有两个统计入口:

  1. 函数调用,当某个函数执行次数达到某个阈值,触发 JIT 编译这个函数
  2. 循环次数,当某个循环体执行次数达到某个阈值,触发 JIT 编译这个循环体

也就是统计出 热函数 和 热循环。

不过 LuaJIT 是基于 trace 的,也就有 trace 中途退出的情况,此时还有第三个 trace exit 的统计:
如果某个 trace 经常从某个 snap exit,从这个 snap 开始 JIT 编译(snap 我们后面再介绍),生成一条 side trace。

录制

当某个函数/循环足够热了之后,JIT compiler 就开始工作了。
第一步录制,录制的核心流程是:一边解释执行,一边生成 IR code。

具体过程是:

  1. 通过修改 DISPATCH,添加字节码解释执行的 hook
  2. 在 hook 中,为当前执行的 byte code,生成对应的 IR code,也会有判断来 完成/提前终止 录制
  3. 继续解释执行 byte code

从开始录制,到录制完成,这个就是 trace 的基本单元,期间解释执行的字节码流,就是这个 trace 需要加速的执行流。

因为录制的是真实的执行流,对于分支代码,trace 当然也不会假设以后每次执行都肯定会进入当前这个分支,而是会在 IR 中加入守卫(guard)。
并且会在合适的时机记录快照(snapshot),snapshot 里会包含一些上下文信息。
如果后续执行过程中,从这个 snapshot 退出的话,会从 snapshot 里恢复上下文信息。

补充细节:
并不是所有的 byte code 都是可以被 JIT 的(具体可以看 LuaJIT NYI)。
碰到了 NYI,LuaJIT 还有 stitch 的能力。比如 FUNCC 是支持 stich 的,那么在 FUNCC 前后的代码,会被录制为两条 trace。最终会是这样效果,JIT 执行 trace1 的机器码 => 解释执行 FUNCC => JIT 执行 trace2 的机器码。把两条 trace 黏合起来,就是 stitch 的效果。

生成

有了 IR code 等信息之后,就可以为其优化生成机器码。

这里有分为两步:

  1. 针对 IR code 的优化
    LuaJIT 的 IR code 也是 static single assignment form(SSA),常见的优化器中间表示码。可以应用很多的优化算法来优化,比如常见的死代码消除,循环变量外提等等。

  2. 从 IR code 生成机器指令
    这部分主要两个工作:寄存器分配,根据 IR 操作翻译为机器指令,比如 IR ADD 翻译为 机器的 ADD 指令。

针对 IR 里的守卫(guard),会生成 if … jump 逻辑的指令,jump 后的桩(stub)指令会完成从某个 snapshot 退出。

这里我们可以明白了,JIT 生成的机器码可以更加高效的原因:

  1. 根据录制时的执行流假设,可以生成 CPU 分支预测友好的指令,理想情况下,CPU 就相当于顺序执行指令
  2. 针对 SSA IR code 有优化
  3. 更高效的使用寄存器(此时没有解释器自身的状态记录负担,可以使用的寄存器更多了)

执行

生成了机器指令之后,会修改的字节码,比如 FUNCF 会改为 JFUNCF traceno
下一次解释器执行 JFUNCF 的时候,会跳转到 traceno 对应的机器指令,也就完成从解释模式到 JIT 模式的切换,这也是进入 JIT 指令执行的主要方式。

而退出 trace 则有两种方式:
1 正常执行完毕退出,此时会恢复到解释模式继续执行
2 trace 中的 guard 失败,会从 trace 中途退出,此时会先根据对应的 snapshot 恢复上下文,然后再解释执行

另外,从 trace 中途退出的情况,也会有退出次数的统计。
如果某个 snapshot 的退出次数达到 hotside 的阈值,则会从这个 snapshot 开始生成一条 sidetrace。
下一次从这个 snapshot 退出的时候,直接就 jump 到这个 side trace 了。

这样下来,对于有分支的热代码,也会是全 JIT 覆盖的效果,但是并不是一开始就全覆盖,而是按需的分步进行。

最后

Lua 作为一门嵌入式小语言,本身是比较精致轻巧的,LuaJIT 的实现也是继承了这些特点。
在单线程环境下,JIT compiler 占用的是当前工作流的时间,JIT compiler 自身的效率也是很重要的。
JIT compiler 长时间阻塞工作流也是不能接受的,这里平衡也是很重要的。

相比较而言,java 的 JIT compiler 是单独的 JIT 编译线程完成的,可以做更加深度的优化,java 的 c2 JIT compiler 就应用了相对比较重的优化。

JIT 是很牛的技术,能了解其运行的基本过程/原理,也是很解惑的事情。

听说 JS 的 v8 引擎,还有 deoptimization 的过程,这个还挺好奇的,得空可以学习学习的。

上一篇「Lua 代码是如何跑起来的」 中,我们介绍了标准 Lua 虚拟机是如何运行 Lua 代码的。

今天我们介绍 Lua 语言的另外一个虚拟机实现 LuaJIT,LuaJIT 使用的 lua 5.1 的语言标准(也可以兼容 lua 5.2)。意味着同样一份遵守 lua 5.1 标准的代码,既可以用标准 lua 虚拟机来跑,也可以用 LuaJIT 来跑。

LuaJIT 主打高性能,接下来我们看看 LuaJIT 是如何提高性能的。

解释模式

首先,LuaJIT 有两种运行模式,一种是解释模式,这个跟标准 Lua 虚拟机是类似的,不过也有改进的地方。

首先,跟标准 Lua 虚拟机一样,Lua 源代码是被编译为字节码(byte code),然后一个个的解释执行这些字节码。
但是,编译出来的字节码,并不是跟标准 Lua 一样,只是类似。
模式上来说,LuaJIT 也是基于虚拟寄存器的,虽然具体实现方式上有所区别。

解释执行字节码

从 Lua 源码到字节码,其实差异不大,但是解释执行字节码,LuaJIT 的改进动作就比较大了。

Lua 解释执行字节码,是在 luaV_execute 这个 C 函数里实现的,而 LuaJIT 则是通过手写汇编来实现的。
通常,我们会简单的认为手写汇编就会更高效,不过也得看写代码的质量。

对比最终生成的机器码

这次我们通过实际对比双方最终生成的机器码,体验下手写的汇编是如何做到高效的。

我们对比「字节码解析」这部分的实现。
首先,Lua 和 LuaJIT 的字节码,都是 32 位定长的。字节码解析的基本逻辑即是:
从虚拟机内部维护的 PC 寄存器,读取 32 位长的字节码,然后解析出 OP 操作码,以及对应的操作参数。

LuaJIT

下面 LuaJIT 源码中的「字节码解析」的源代码,
这里并不是裸写的汇编代码,为了提高可阅读性,用到了一些宏。

1
2
3
4
5
mov RCd, [PC]
movzx RAd, RCH
movzx OP, RCL
add PC, 4
shr RCd, 16

最终在 x86_64 上生成的机器指令如下,非常的简洁。

1
2
3
4
5
mov    eax,DWORD PTR [rbx]  # rbx 里存储的是 PC 值,读取 32 位字节码到 eax 寄存器
movzx ecx,ah # 9-16 位,是操作数 A 的值
movzx ebp,al # 低 8 位是 OP 操作码
add rbx,0x4 # PC 指向下一个字节码
shr eax,0x10 # 右移 16 位,是操作数 C 的值
Lua

在 Lua 的 luaV_execute 函数中,大致是有这些 C 源代码来完成「字节码解析」的部分工作。

1
2
3
const Instruction i = *pc++;
ra = RA(i);
GET_OPCODE(i)

经过 gcc 编译之后,我们从可执行文件中,可以找到如下相对应的机器指令。
因为 gcc 是对整个函数进行通盘优化,所以指令的顺序并不是那么直观,寄存器使用也不是那么统一,所以看起来会有点乱。
如下是我摘出来的机器指令,为了方便阅读,顺序也经过了调整,没有保持原始的顺序。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
mov    ebx,DWORD PTR [r14]   # r14 里存储的是 PC 值,读取 32 位字节码到 ebx 寄存器
lea r12,[r14+0x4] # PC 指向下一个字节码,存入 r12
mov r14,r12 # 后续再复制到 r14(因为 r14 中间还有其他用途)

mov edx,ebx # 复制 edx 到 eax
and edx,0x3f # 低 6 位是 OP 操作码

# 7-14 位是操作数 A 的值
mov eax,ebx # 复制 ebx 到 eax
shr eax,0x6 # 右移 6 位
movzx eax,al # 此时的低 8 位是操作数 A 的值

# 此时对应操作数的使用,不属于字节码解析了,但是是 RA(i) 里的实现
shl rax,0x4 # rax * 16
lea r9,[r11+rax*1] # r11 是 BASE 的值,取操作 A 对应 Lua
栈上的地址

对比分析

字节码解析,是 Lua 中最基础的操作。
通过对比最终生成的机器码,我们明显可以看到 LuaJIT 的实现可以更加高效。

手写汇编可以更好的利用寄存器,不过,也不完全是因为手写汇编的原因。
LuaJIT 从字节码设计上,就考虑到了高效,OP code 直接是 8 位,这样可以直接利用 al 这种 CPU 硬件提供的低 8 位能力,可以省掉一些位操作指令。

JIT

Just-In-Time 是 LuaJIT 运行 Lua 代码的另一种模式,也是 LuaJIT 的性能杀手锏。
主要原理是动态生成更加功效的机器指令,从而提升运行时性能。

这个我们下一篇再继续…

tmate 是什么

tmate 可以用于远程分享终端,实乃远程协同办公之神器。

自主部署

通常大家都是使用 tmate.io 的服务,不过墙外的服务, 300 多ms 的延时,会有明显可感知的延时,以及不可靠因素。

近期花了些时间,自己部署了一套 tmate 服务,把过程记录一下。

服务端

tmate 有提供 docker 镜像,所以部署还是挺方便的。

  1. 生成 keys

    1
    2
    3
    git clone git@github.com:tmate-io/tmate-ssh-server.git
    cd tmate-ssh-server
    ./create_keys.sh

    会在当前目录生成 keys 目录,并且会得到如下的输出,这些可以先记录下来,后续会用到。

    1
    2
    3
    4
    set -g tmate-server-host localhost
    set -g tmate-server-port 22
    set -g tmate-server-rsa-fingerprint SHA256:JOhvYoiBO0kVltwqKHTgKVCfvyajWV/cGwNXSyTNRcE
    set -g tmate-server-ed25519-fingerprint SHA256:+N/UZ8BNfTVNoOQjH4yEe0GoTFpapu/I0G4c6RI7HWo
  2. 启动 docker 服务

    1
    2
    3
    4
    5
    6
    7
    8
    docker run -d --rm \
    -p 8022:8022 \
    -v `pwd`/keys:/etc/tmate/keys \
    --env SSH_KEYS_PATH='/etc/tmate/keys' \
    --env SSH_HOSTNAME=tmate.uncledou.site \
    --env SSH_PORT_LISTEN=8022 \
    --cap-add SYS_ADMIN \
    tmate/tmate-ssh-server

    就这么简单,tmate 的服务端就部署好了。

客户端

  1. 安装 tmate 软件
    tmate 在很多主流仓库里都有,可以先尝试直接用当前系统的 aptyum 之类的安装。 如果不幸没有的话,也可以用 tmate 编译好的二进制,在 github release 里可以下载到二进制包,比如常见的 x86_64 机器上,就是这个 tmate-2.4.0-static-linux-amd64.tar.xz
  2. 配置 .tmate.conf
    把客户端部署第一步的输出,写入到本机的 ~/.tmate.conf 文件。注意其中的 hostport 需要改成自助部署的,比如我这里是这样的:
    1
    2
    3
    4
    set -g tmate-server-host tmate.uncledou.site
    set -g tmate-server-port 8022
    set -g tmate-server-rsa-fingerprint SHA256:JOhvYoiBO0kVltwqKHTgKVCfvyajWV/cGwNXSyTNRcE
    set -g tmate-server-ed25519-fingerprint SHA256:+N/UZ8BNfTVNoOQjH4yEe0GoTFpapu/I0G4c6RI7HWo

开始飞吧

至此 tmate 客户端就安装配置好了,执行 tmate 命令就可以得到类似的输出:

1
2
3
4
5
6
7
8
Tip: if you wish to use tmate only for remote access, run: tmate -F                                                          [0/0]
To see the following messages again, run in a tmate session: tmate show-messages
Press <q> or <ctrl-c> to continue
---------------------------------------------------------------------
Connecting to tmate.uncledou.site...
Note: clear your terminal before sharing readonly access
ssh session read only: ssh -p8022 ro-RyrBkE6v5rAhpqP6FN6mCWgm2@tmate.uncledou.site
ssh session: ssh -p8022 XtydPFjTpbaz8eXxB77RGZeNZ@tmate.uncledou.site

对方执行 ssh -p8022 XtydPFjTpbaz8eXxB77RGZeNZ@tmate.uncledou.site ,即可开始与你一起共享这个终端了。

如果你不想用 tmate.io 的服务,也不想自己部署,也可以使用我这套部署好的。按照我的部署,从客户端开始即可。

go ahead, happy hacking :)

上一篇「C 代码是如何跑起来的」中,我们了解了 C 语言这种高级语言是怎么运行起来的。

C 语言虽然也是高级语言,但是毕竟是很 “古老” 的语言了(快 50 岁了)。相比较而言,C 语言的抽象层次并不算高,从 C 语言的表达能力里,还是可以体会到硬件的影子。

1
旁白:通常而言,抽象层次越高,意味着程序员的在编写代码的时候,心智负担就越小。

今天我们来看下 Lua 这门相对小众的语言,是如何跑起来的。

解释型

不同于 C 代码,编译器将其直接编译为物理 CPU 可以执行的机器指令,CPU 执行这些机器执行就行。

Lua 代码则需要分为两个阶段:

  1. 先编译为字节码
  2. Lua 虚拟机解释执行这些字节码
1
旁白:虽然我们也可以直接把 Lua 源码作为输入,直接得到执行输出结果,但是实际上内部还是会分别执行这两个阶段

字节码

「CPU 提供了什么」 中,我们介绍了物理 CPU 的两大基础能力:提供一系列寄存器,能执行约定的指令集。

那么类似的,Lua 虚拟机,也同样提供这两大基础能力:

  1. 虚拟寄存器
  2. 执行字节码
1
旁白:Lua 寄存器式虚拟机,会提供虚拟的寄存器,市面上更多的虚拟机是栈式的,没有提供虚拟寄存器,但是会对应的操作数栈。

我们来用如下一段 Lua 代码(是的,逻辑跟上一篇中的 C 代码一样),看看对应的字节码。用 Lua 5.1.5 中的 luac 编译可以得到如下结果:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
$ ./luac -l simple.lua

main <simple.lua:0,0> (12 instructions, 48 bytes at 0x56150cb5a860)
0+ params, 7 slots, 0 upvalues, 4 locals, 4 constants, 1 function
1 [4] CLOSURE 0 0 ; 0x56150cb5aac0
2 [6] LOADK 1 -1 ; 1 # 将常量区中 -1 位置的值(1) 加载到寄存器 1 中
3 [7] LOADK 2 -2 ; 2 # 将常量区中 -2 位置的值(2) 加载到寄存器 1 中
4 [8] MOVE 3 0 # 将寄存器 0 的值,挪到寄存器 3
5 [8] MOVE 4 1
6 [8] MOVE 5 2
7 [8] CALL 3 3 2 # 调用寄存器 3 的函数,寄存器 4,和寄存器 5 作为两个函数参数,返回值放入寄存器 3 中
8 [10] GETGLOBAL 4 -3 ; print
9 [10] LOADK 5 -4 ; "a + b = "
10 [10] MOVE 6 3
11 [10] CALL 4 3 1
12 [10] RETURN 0 1

function <simple.lua:2,4> (3 instructions, 12 bytes at 0x56150cb5aac0)
2 params, 3 slots, 0 upvalues, 2 locals, 0 constants, 0 functions
1 [3] ADD 2 0 1 # 将寄存器 0 和 寄存器 1 的数相加,结果放入寄存器 2 中
2 [3] RETURN 2 2 # 将寄存器 2 中的值,作为返回值
3 [4] RETURN 0 1

稍微解释一下:

  1. 不像 CPU 提供的物理集群器,有不同的名字,字节码的虚拟寄存器,是没有名字的,只有数字编号。逻辑上而言,每个函数有独立的寄存器,都是从序号 0 开始的(实际上会有部分的重叠复用)
  2. Lua 字节码,也提供了定义函数,执行函数的能力
  3. 以上的输出结果是方便人类阅读的格式,实际上字节码是以非常紧凑的二进制来编码的(每个字节码,定长 32 比特)

执行字节码

Lua 虚拟机

Lua 虚拟机是一个由 C 语言实现的程序,输入是 Lua 字节码,输出是执行这些字节码的结果。

对于字节码中的一些抽象,则是在 Lua 虚拟机中来具体实现的,比如:

  1. 虚拟寄存器
  2. Lua 变量,比如 table

虚拟寄存器

对于字节码中用到的虚拟寄存器,Lua 虚拟机是用一段连续的物理内存来模拟。

具体来说:
因为 Lua 变量,在 Lua 虚拟机内部,都是通过 TValue 结构体来存储的,所以实际上虚拟寄存器,就是一个 TValue 数组。

例如下面的 MOVE 指令:

1
MOVE 3 0

实际上是完成一个 TValue 的赋值,这是 Lua 5.1.5 中对应的 C 代码:

1
2
3
4
#define setobj(L,obj1,obj2) \
{ const TValue *o2=(obj2); TValue *o1=(obj1); \
o1->value = o2->value; o1->tt=o2->tt; \
checkliveness(G(L),o1); }

其对应的关键机器指令如下:(主要是通过 mov 机器指令来完成内存的读写)

1
2
3
4
mov    rax,QWORD PTR [rsi]
mov QWORD PTR [r9+0x10],rax
mov eax,DWORD PTR [rsi+0x8]
mov DWORD PTR [r9+0x18],eax

执行

Lua 虚拟机的实现中,有这样一个 for (;;) 无限循环(在 luaV_execute 函数中)。
其核心工作跟物理 CPU 类似,读取 pc 地址的字节码(同时 pc 地址 +1),解析操作指令,然后根据操作指令,以及对应的操作数,执行字节码。
例如上面我们解释过的 MOVE 字节码指令,也就是在这个循环中执行的。其他的字节码指令,也是类似的套路来完成执行的。

pc 指针也只是一个 Lua 虚拟机位置的内存地址,并不是物理 CPU 中的 pc 寄存器。

函数

几个基本点:

  1. Lua 函数,可以简单的理解为一堆字节码的集合。
  2. Lua 虚拟机里,也有栈帧的,每个栈帧实际就是一个 C struct 描述的内存结构体。

执行一个 Lua 函数,也就是执行其对应的字节码。

总结

Lua 这种带虚拟机的语言,逻辑上跟物理 CPU 是很类似的。生成字节码,然后由虚拟机来具体执行字节码。

只是多了一层抽象虚拟,字节码解释执行的效率,是比不过机器指令的。

物理内存的读写速度,比物理寄存器要慢几倍甚至几百倍(取决于是否命中 CPU cache)。
所以 Lua 的虚拟寄存器读写,也是比真实寄存器读写要慢很多的。

不过在 Lua 语言的另一个实现 LuaJIT 中,这种抽象还是有很大机会来优化的,核心思路跟我们之前在 「C 代码是如何跑起来的」 中看到的 gcc 的编译优化一样,尽量多的使用寄存器,减少物理内存的读写。

关于 LuaJIT 确实有很多很牛的地方,以后我们再分享。