Go提供了自动化的内存管理机制,但在某些情况下需要更精细的微调从而避免发生OOM错误。本文介绍了如何通过微调GOGC和GOMEMLIMIT在性能和内存效率之间取得平衡,并尽量避免OOM的产生。原文: Memory Optimization and Garbage Collector Management in Go
本文将讨论Go的垃圾收集器、应用程序内存优化以及如何防止OOM(Out-Of-Memory)错误。
Go中的堆(Heap)栈(Stack)
我不会详细介绍垃圾收集器如何工作,已经有很多关于这个主题的文章和官方文档(比如A Guide to the Go Garbage Collector[1]和源码[2])。但是,我会提到一些有助于理解本文主题的基本概念。
你可能已经知道,Go的数据可以存储在两个主要的内存存储中: 栈(stack)和堆(heap)。
通常,栈存储的数据的大小和使用时间可以由Go编译器预测,包括函数局部变量、函数参数、返回值等。
栈是自动管理的,遵循后进先出(LIFO)原则。当调用函数时,所有相关数据都放在栈的顶部,函数结束时,这些数据将从栈中删除。栈不需要复杂的垃圾收集机制,其内存管理开销最小,在栈中检索和存储数据的过程非常快。
然而,并不是所有数据都可以存储在栈中。在执行过程中动态更改的数据或需要在函数范围之外访问的数据不能放在栈上,因为编译器无法预测其使用情况,这种数据应该存储在堆中。
与栈不同,从堆中检索数据并对其进行管理的成本更高。
栈里放什么,堆里放什么?
正如前面提到的,栈用于具有可预测大小和寿命的值,例如:
-
在函数内部声明的局部变量,例如基本数据类型变量(例如数字和布尔值)。 -
函数参数。 -
函数返回后不再被引用的返回值。
Go编译器在决定将数据放在栈中还是堆中时会考虑各种细微差别。
例如,预分配大小为64 KB的数据将存储在栈中,而大于64 KB的数据将存储在堆中。这同样适用于数组,如果数组超过10 MB,将存储在堆中。
可以使用逃逸分析(escape analysis)来确定特定变量的存储位置。
例如,可以通过命令行编译参数-gcflags=-m
来分析应用程序:
go build -gcflags=-m main.go
如果使用-gcflags=-m
参数编译下面的main.go
:
package main
func main() {
var arrayBefore10Mb [1310720]int
arrayBefore10Mb[0] = 1
var arrayAfter10Mb [1310721]int
arrayAfter10Mb[0] = 1
sliceBefore64 := make([]int, 8192)
sliceOver64 := make([]int, 8193)
sliceOver64[0] = sliceBefore64[0]
}
结果是:
# ***mand-line-arguments
./main.go:3:6: can inline main
./main.go:7:6: moved to heap: arrayAfter10Mb
./main.go:10:23: make([]int, 8192) does not escape
./main.go:11:21: make([]int, 8193) escapes to heap
可以看到arrayAfter10Mb
数组被移动到堆中,因为大小超过了10MB,而arrayBefore10Mb
仍然留在栈中(对于int
变量,10MB等于10 * 1024 * 1024 / 8 = 1310720个元素)。
此外,sliceBefore64
没有存储在堆中,因为它的大小小于64KB,而sliceOver64
被存储在堆中(对于int
变量,64KB等于64 * 1024 / 8 = 8192个元素)。
要了解更多关于在堆中分配的位置和内容,可以参考malloc.go源码[3]。
因此,使用堆的一种方法是尽量避免用它!但是,如果数据已经落在堆中了呢?
与栈不同,堆的大小是无限的,并且不断增长。堆存储动态创建的对象,如结构体、分片和映射,以及由于其限制而无法放入栈中的大内存块。
在堆中重用内存并防止其完全阻塞的唯一工具是垃圾收集器。
浅谈垃圾收集器的工作原理
垃圾收集器(GC)是一种专门用于识别和释放动态分配内存的系统。
Go使用基于跟踪和标记和扫描算法的垃圾收集算法。在标记阶段,垃圾收集器将应用程序正在使用的数据标记为活跃堆。然后,在清理阶段,GC遍历所有未标记为活跃的内存并复用。
垃圾收集器不是免费工作的,需要消耗两个重要的系统资源: CPU时间和物理内存。
垃圾收集器中的内存由以下部分组成:
-
活跃堆内存(在前一个垃圾收集周期中标记为"活跃"的内存) -
新的堆内存(尚未被垃圾收集器分析的堆内存) -
存储元数据的内存,与前两个实体相比,这些元数据通常微不足道。
垃圾收集器所消耗的CPU时间与其工作细节有关。有一种称为"stop-the-world"的垃圾收集器实现,它在垃圾收集期间完全停止程序执行,导致CPU时间被花在非生产性工作上。
在Go里,垃圾收集器并不是完全"stop-the-world",而是与应用程序并行执行其大部分工作(例如标记堆)。
但是,垃圾收集器的操作仍然有一些限制,并且会在一个周期内多次完全停止工作代码的执行,想要了解更多可以阅读源码[4]。
如何管理垃圾收集器
在Go中可以通过某些参数管理垃圾收集器: GOGC
环境变量或runtime/debug
包中的等效函数SetGCPercent
。
GOGC
参数确定将触发垃圾收集的新未分配堆内存相对于活跃内存的百分比。
GOGC
的默认值是100,意味着当新内存达到活跃堆内存的100%时将触发垃圾收集。
我们以示例程序为例,通过go tool trace
跟踪堆大小的变化,我们用Go 1.20.1版本来运行程序。
在本例中,performMemoryIntensiveTask
函数使用了在堆中分配的大量内存。这个函数启动一个队列大小为NumWorker
的工作池,任务数量等于NumTasks
。
package main
import (
"fmt"
"os"
"runtime/debug"
"runtime/trace"
"sync"
)
const (
NumWorkers = 4 // Number of workers.
NumTasks = 500 // Number of tasks.
MemoryIntense = 10000 // Size of memory-intensive task (number of elements).
)
func main() {
// Write to the trace file.
f, _ := os.Create("trace.out")
trace.Start(f)
defer trace.Stop()
// Set the target percentage for the garbage collector. Default is 100%.
debug.SetGCPercent(100)
// Task queue and result queue.
taskQueue := make(chan int, NumTasks)
resultQueue := make(chan int, NumTasks)
// Start workers.
var wg sync.WaitGroup
wg.Add(NumWorkers)
for i := 0; i < NumWorkers; i++ {
go worker(taskQueue, resultQueue, &wg)
}
// Send tasks to the queue.
for i := 0; i < NumTasks; i++ {
taskQueue <- i
}
close(taskQueue)
// Retrieve results from the queue.
go func() {
wg.Wait()
close(resultQueue)
}()
// Process the results.
for result := range resultQueue {
fmt.Println("Result:", result)
}
fmt.Println("Done!")
}
// Worker function.
func worker(tasks <-chan int, results chan<- int, wg *sync.WaitGroup) {
defer wg.Done()
for task := range tasks {
result := performMemoryIntensiveTask(task)
results <- result
}
}
// performMemoryIntensiveTask is a memory-intensive function.
func performMemoryIntensiveTask(task int) int {
// Create a large-sized slice.
data := make([]int, MemoryIntense)
for i := 0; i < MemoryIntense; i++ {
data[i] = i + task
}
// Latency imitation.
time.Sleep(10 * time.Millisecond)
// Calculate the result.
result := 0
for _, value := range data {
result += value
}
return result
}
跟踪程序执行的结果被写入文件trace.out
:
// Writing to the trace file.
f, _ := os.Create("trace.out")
trace.Start(f)
defer trace.Stop()
通过go tool trace
,可以观察堆大小的变化,并分析程序中垃圾收集器的行为。
请注意,go tool trace的精确细节和功能可能因go版本不同而有所差异,因此建议参考官方文档,以获取有关其在特定go版本中使用的详细信息。
GOGC的默认值
GOGC
参数可以使用runtime/debug
包中的debug.SetGCPercent
进行设置,GOGC
默认设置为100%。
用下面命令运行程序:
go run main.go
程序执行后,将会创建trace.out
文件,可以使用go tool
工具对其进行分析。要做到这一点,执行命令:
go tool trace trace.out
然后可以通过打开web浏览器并访问http://127.0.0.1:54784/trace来查看基于web的跟踪查看器。
在"STATS"选项卡中,可以看到"Heap"字段,显示了在应用程序执行期间堆大小的变化情况,图中红色区域表示堆占用的内存。
在"PROCS"选项卡中,"GC"(垃圾收集器)字段显示的蓝色列表示触发垃圾收集器的时刻。
一旦新堆的大小达到活动堆大小的100%,就会触发垃圾收集。例如,如果活跃堆大小为10 MB,则当当前堆大小达到10 MB时将触发垃圾收集。
跟踪所有垃圾收集调用使我们能够确定垃圾收集器处于活动状态的总时间。
示例中,当GOGC
值为100时,将调用垃圾收集器16次,总执行时间为14 ms。
更频繁的调用GC
如果我们将debug.SetGCPercent(10)
设置为10%后运行代码,将观察到垃圾收集器调用的频率更高。现在,如果当前堆大小达到活跃堆大小的10%时,将触发垃圾收集。
换句话说,如果活跃堆大小为10 MB,则当前堆大小达到1 MB时就将触发垃圾收集。
在本例中,垃圾收集器被调用了38次,总垃圾收集时间为28 ms。
可以观察到,将GOGC设置为低于100%的值可以增加垃圾收集的频率,可能导致CPU使用率增加并降低程序性能。
更少的调用GC
如果运行相同程序,但将debug.SetGCPercent(1000)
设置为1000%,我们将得到以下结果:
可以看到,当前堆的大小一直在增长,直到达到活跃堆大小的1000%。换句话说,如果活跃堆大小为10 MB,则当前堆大小达到100 MB时将触发垃圾收集。
在当前情况下,垃圾收集器被调用一次并执行2毫秒。
关闭GC
还可以通过设置GOGC=off
或调用debug.SetGCPercent(-1)
来禁用垃圾收集。
下面是禁用垃圾收集器而不设置GOMEMLIMIT时堆的行为:
可以看到,在关闭GC后,应用程序的堆大小一直在增长,直到程序执行为止。
堆占用多少内存?
在活跃堆的实际内存分配中,通常不像我们在trace中看到的那样定期和可预测的工作。
活跃堆随着每个垃圾收集周期动态变化,并且在某些条件下,其绝对值可能出现峰值。
例如,如果由于多个并行任务的重叠,活跃堆的大小可以增长到800 MB,那么只有在当前堆大小达到1.6 GB时才会触发垃圾收集。
现代开发通常在具有内存使用限制的容器中运行应用。因此,如果容器将内存限制设置为1 GB,并且总堆大小增加到1.6 GB,则容器将失效,并出现OOM(out of memory)错误。
让我们模拟一下这种情况。例如,我们在内存限制为10 MB的容器中运行程序(仅用于测试目的)。Dockerfile:
FROM golang:latest as builder
WORKDIR /src
COPY . .
RUN go env -w GO111MODULE=on
RUN go mod vendor
RUN CGO_ENABLED=0 GOOS=linux go build -mod=vendor -a -installsuffix cgo -o app ./cmd/
FROM golang:latest
WORKDIR /root/
COPY --from=builder /src/app .
EXPOSE 8080
CMD ["./app"]
Docker-***pose描述:
version: '3'
services:
my-app:
build:
context: .
dockerfile: Dockerfile
ports:
- 8080:8080
deploy:
resources:
limits:
memory: 10M
让我们使用前面设置GOGC=1000%的代码启动容器。
可以使用以下命令运行容器:
docker-***pose build
docker-***pose up
几秒钟后,容器将崩溃,并产生与OOM相对应的错误。
exited with code 137
这种情况非常令人不快: GOGC只控制新堆的相对值,而容器有绝对限制。
如何避免OOM?
从1.19版本开始,在GOMEMLIMIT
选项的帮助下,Golang引入了一个名为"软内存管理"的特性,runtime/debug
包中名为SetMemoryLimit
的类似函数(可以阅读48409-soft-memory-limit.md了解有关此选项的一些有趣的设计细节)提供了相同的功能。
GOMEMLIMIT
环境变量设置Go运行时可以使用的总体内存限制,例如: GOMEMLIMIT = 8MiB
。要设置内存值,需要使用大小后缀,在本例中为8 MB。
让我们启动将GOMEMLIMIT
境变量设置为8MiB的容器。为此,我们将环境变量添加到docker-***pose文件中:
version: '3'
services:
my-app:
environment:
GOMEMLIMIT: "8MiB"
build:
context: .
dockerfile: Dockerfile
ports:
- 8080:8080
deploy:
resources:
limits:
memory: 10M
现在,当启动容器时,程序运行没有任何错误。该机制是专门为解决OOM问题而设计的。
这是因为启用GOMEMLIMIT=8MiB
后,会定期调用垃圾收集器,并将堆大小保持在一定限制内,结果就是会频繁调用垃圾收集器以避免内存过载。
成本是什么?
GOMEMLIMIT
是强有力的工具,但也可能适得其反。
在上面的堆跟踪图中可以看到这种场景的一个示例。
当总内存大小由于活跃堆或持久程序泄漏的增长而接近GOMEMLIMIT
时,将开始根据该限制不断调用垃圾收集器。
由于频繁调用垃圾收集器,应用程序的运行时可能会无限增加,从而消耗应用程序的CPU时间。
这种行为被称为死亡螺旋[5],可能导致应用程序性能下降,与OOM错误不同,这种问题很难检测和修复。
这正是GOMEMLIMIT
机制作为软限制起作用的原因。
Go不能100%保证GOMEMLIMIT
指定的内存限制会被严格执行,而是会允许使用超出限制的内存,并防止频繁调用垃圾收集器的情况。
为了实现这一点,需要对CPU使用设置限制。目前,这个限制被设置为所有处理器时间的50%,CPU窗口为2 * GOMAXPROCS
秒。
这就是为什么我们不能完全避免OOM错误,而是会将其推迟到很久以后发生。
在哪里应用GOMEMLIMIT和GOGC
如果默认垃圾收集器设置在大多数情况下是足够的,那么带有GOMEMLIMIT
的软内存管理机制可以使我们避免不愉快的情况。
使用GOMEMLIMIT
内存限制可能有用的例子:
-
在内存有限的容器中运行应用程序时,最好将 GOMEMLIMIT
设置为保留5-10%的可用内存。 -
在运行资源密集型库或代码时,对 GOMEMLIMIT
进行实时管理是有好处的。 -
当在容器中以脚本形式运行应用程序时(意味着应用程序在一段时间内执行某些任务,然后终止),禁用垃圾收集器但设置 GOMEMLIMIT
可以提高性能并防止超出容器的资源限制。
避免使用GOMEMLIMIT
的情况:
-
当程序已经接近其环境的内存限制时,不要设置内存限制。 -
在无法控制的执行环境中部署时,不要使用内存限制,特别是在程序的内存使用与其输入数据成正比的情况下,例如CLI工具或桌面应用程序。
如上所述,通过深思熟虑的方法,我们可以管理程序中的微调设置,例如垃圾收集器和GOMEMLIMIT
。然而,仔细考虑应用这些设置的策略无疑非常重要。
你好,我是俞凡,在Motorola做过研发,现在在Mavenir做技术工作,对通信、网络、后端架构、云原生、DevOps、CICD、区块链、AI等技术始终保持着浓厚的兴趣,平时喜欢阅读、思考,相信持续学习、终身成长,欢迎一起交流学习。为了方便大家以后能第一时间看到文章,请朋友们关注公众号"DeepNoMind",并设个星标吧,如果能一键三连(转发、点赞、在看),则能给我带来更多的支持和动力,激励我持续写下去,和大家共同成长进步!
A Guide to the Go Garbage Collector: https://tip.golang.org/doc/gc-guide
[2]mgc.go: https://go.dev/src/runtime/mgc.go
[3]malloc.go: https://go.dev/src/runtime/malloc.go
[4]mgc.go: https://go.dev/src/runtime/mgc.go
[5]Soft Memory Limit Death Spirals: https://github.***/golang/proposal/blob/master/design/48409-soft-memory-limit.md#death-spirals
本文由 mdnice 多平台发布