Hi ,我是 Zorro 。这是我的微博地址,我会不定期在这里更新文章,如果你有兴趣,可以来关注我呦。
另外,我的其他联系方式:
Email: mini.jerry@gmail.com
QQ: 30007147
本文PDF
在聊 cgroup 的内存限制之前,我们有必要先来讲解一下:
无论从任何角度看, Linux 的内存管理都是一坨麻烦的事情,当然我们也可以用一堆、一片、一块、一筐来形容这个事情,但是毫无疑问,用一坨来形容它简直恰当无比。在理解它之前,我甚至不会相信精妙的和恶心可以同时形容同一件事情,是的,在我看来它就是这样的。其实我只是做个铺垫,让大家明白,我们下面要讲的内容,绝不是一个成体系的知识,所以,学习起来也确实很麻烦。甚至,我写这个技术文章之前一度考虑了很久该怎么写?从哪里开始写?思考了半天,还是不能免俗,我们无奈,仍然先从 free 命令说起:
[root@zorrozou-pc ~]# free
total used free shared buffers cached
Mem: 131904480 6681612 125222868 0 478428 4965180
-/+ buffers/cache: 1238004 130666476
Swap: 2088956 0 2088956
这个命令几乎是每一个使用过 Linux 的人必会的命令,但越是这样的命令,似乎真正明白的人越少(我是说比例越少)。一般情况下,对此命令的理解可以分这几个阶段:
如果你的认识在第一种阶段,那么请你继续补充关于 Linux 的 buffers / cache 的知识。如果你处在第二阶段,好吧,你已经是个老手了,但是需要提醒的是,上帝给你关上一扇门的同时,肯定都会给你放一条狗的。是的, Linux 的策略是:内存是用来用的,而不是用来看的。但是,只要是用了,就不是没有成本的。有什么成本,凭你对 buffer/cache 的理解,应该可以想的出来。一般我比较认同第三种情况,一般光凭一个 free 命令的显示,是无法判断出任何有价值的信息的,我们需要结合业务的场景以及其他输出综合判断目前遇到的问题。当然也可能这种人给人的第一感觉是他很外行,或者他真的是外行。
无论如何, free 命令确实给我门透露了一些有用的信息,比如内存总量,剩余多少,多少用在了 buffers / cache 上, Swap 用了多少,如果你用了其它参数还能看到一些其它内容,这里不做一一列举。那么这里又引申出另一些概念,什么是 buffer ?什么是 cache ?什么是 swap ?由此我们就直接引出另一个命令:
[root@zorrozou-pc ~]# cat /proc/meminfo
MemTotal: 131904480 kB
MemFree: 125226660 kB
Buffers: 478504 kB
Cached: 4966796 kB
SwapCached: 0 kB
Active: 1774428 kB
Inactive: 3770380 kB
Active(anon): 116500 kB
Inactive(anon): 3404 kB
Active(file): 1657928 kB
Inactive(file): 3766976 kB
Unevictable: 0 kB
Mlocked: 0 kB
SwapTotal: 2088956 kB
SwapFree: 2088956 kB
Dirty: 336 kB
Writeback: 0 kB
AnonPages: 99504 kB
Mapped: 20760 kB
Shmem: 20604 kB
Slab: 301292 kB
SReclaimable: 229852 kB
SUnreclaim: 71440 kB
KernelStack: 3272 kB
PageTables: 3320 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 68041196 kB
Committed_AS: 352412 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 493196 kB
VmallocChunk: 34291062284 kB
HardwareCorrupted: 0 kB
AnonHugePages: 49152 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 194816 kB
DirectMap2M: 3872768 kB
DirectMap1G: 132120576 kB
以上显示的内容都是些什么鬼?
其实这个问题的答案也是另一个问题的答案,即: Linux 是如何使用内存的?了解清楚这个问题是很有必要的,因为只有先知道了 Linux 如何使用内存,我们在能知道内存可以如何限制,以及,做了限制之后会有什么问题?我们在此先例举出几个常用概念的意义:
内存,作为一种相对比较有限的资源,内核在考虑其管理时,无非应该主要从以下出发点考虑:
在内存够用时,内核的思路是,如何尽量提高资源的利用效率,以加快系统整体响应速度和吞吐量?于是内存作为一个 CPU 和 I / O 之间的大 buffer 的功能就呼之欲出了。为此,内核设计了以下系统来做这个功能:
buffer 和 cache 是两个在计算机技术中被用滥的名词,放在不通语境下会有不同的意义。在内存管理中,我们需要特别澄清一下,这里的 buffer 指 Linux 内存的: Buffer cache 。这里的 cache 指 Linux 内存中的: Page cache 。翻译成中文可以叫做缓冲区缓存和页面缓存。在历史上,它们一个( buffer )被用来当成对 io 设备写的缓存,而另一个( cache )被用来当作对 io 设备的读缓存,这里的 io 设备,主要指的是块设备文件和文件系统上的普通文件。但是现在,它们的意义已经不一样了。在当前的内核中, page cache 顾名思义就是针对内存页的缓存,说白了就是,如果有内存是以 page 进行分配管理的,都可以使用 page cache 作为其缓存来使用。当然,不是所有的内存都是以页( page )进行管理的,也有很多是针对块( block )进行管理的,这部分内存使用如果要用到 cache 功能,则都集中到 buffer cache 中来使用。(从这个角度出发,是不是 buffer cache 改名叫做 block cache 更好?)然而,也不是所有块( block )都有固定长度,系统上块的长度主要是根据所使用的块设备决定的,而页长度在 X86 上无论是 32 位还是 64 位都是 4k 。
而明白了这两套缓存系统的区别,也就基本可以理解它们究竟都可以用来做什么了。
什么是 page cache
Page cache 主要用来作为文件系统上的文件数据的缓存来用,尤其是针对当进程对文件有 read / write 操作的时候。如果你仔细想想的话,作为可以映射文件到内存的系统调用: mmap 是不是很自然的也应该用到 page cache ?如果你再仔细想想的话, malloc 会不会用到 page cache ?
以上提出的问题都请自己思考,本文档不会给出标准答案。
在当前的实现里, page cache 也被作为其它文件类型的缓存设备来用,所以事实上 page cache 也负责了大部分的块设备文件的缓存工作。
什么是 buffer cache
Buffer cache 则主要是设计用来在系统对块设备进行读写的时候,对块进行数据缓存的系统来使用。但是由于 page cache 也负责块设备文件读写的缓存工作,于是,当前的 buffer cache 实际上要负责的工作比较少。这意味着某些对块的操作会使用 buffer cache 进行缓存,比如我们在格式化文件系统的时候。
一般情况下两个缓存系统是一起配合使用的,比如当我们对一个文件进行写操作的时候, page cache 的内容会被改变,而 buffer cache 则可以用来将 page 标记为不同的缓冲区,并记录是哪一个缓冲区被修改了。这样,内核在后续执行脏数据的回写( writeback )时,就不用将整个 page 写回,而只需要写回修改的部分即可。
有搞大型系统经验的人都知道,缓存就像万金油,只要哪里有速度差异产生的瓶颈,就可以在哪里抹。但是其成本之一就是,需要维护数据的一致性。内存缓存也不例外,内核需要维持其一致性,在脏数据产生较快或数据量较大的时候,缓存系统整体的效率一样会下降,因为毕竟脏数据写回也是要消耗 IO 的。这个现象也会表现在这样一种情况下,就是当你发现 free 的时候,内存使用量较大,但是去掉了 buffer / cache 的使用之后剩余确很多。以一般的理解,都会认为此时进程如果申请内存,内核会将 buffer / cache 占用的内存当成空闲的内存分给进程,这是没错的。但是其成本是,在分配这部分已经被 buffer / cache 占用的内存的时候,内核会先对其上面的脏数据进行写回操作,保证数据一致后才会清空并分给进程使用。如果此时你的进程是突然申请大量内存,而且你的业务是一直在产生很多脏数据(比如日志),并且系统没有及时写回的时候,此时系统给进程分配内存的效率会很慢,系统 IO 也会很高。那么此时你还以为 buffer / cache 可以当空闲内存使用么?
思考题: Linux 什么时候会将脏数据写回到外部设备上?这个过程如何进行人为干预?
这足可以证明一点,以内存管理的复杂度,我们必须结合系统上的应用状态来评估系统监控命令所给出的数据,才是做评估的正确途径。如果你不这样做,那么你就可以轻而易举的得出“ Linux 系统好烂啊!“这样的结论。也许此时,其实是你在这个系统上跑的应用很烂的缘故导致的问题。
接下来,当内存不够用的时候怎么办?
我们好像已经分析了一种内存不够用的状态,就是上述的大量 buffer / cache 把内存几乎占满的情况。但是基于 Linux 对内存的使用原则,这不算是不够用,但是这种状态导致 IO 变高了。我们进一步思考,假设系统已经清理了足够多的 buffer / cache 分给了内存,而进程还在嚷嚷着要内存咋办?
此时内核就要启动一系列手段来让进程尽量在此时能够正常的运行下去。
请注意我在这说的是一种异常状态!我之所以要这样强调是因为,很多人把内存用满了当称一种正常状态。他们认为,当我的业务进程在内存使用到压力边界的情况下,系统仍然需要保证让业务进程有正常的状态!这种想法显然是缘木求鱼了。另外我还要强调一点,系统提供的是内存管理的机制和手段,而内存用的好不好,主要是业务进程的事情,责任不能本末倒置。
首先是 Swap 机制。 Swap 是交换技术,这种技术是指,当内存不够用的时候,我们可以选择性的将一块磁盘、分区或者一个文件当成交换空间,将内存上一些临时用不到的数据放到交换空间上,以释放内存资源给急用的进程。
哪些数据可能会被交换出去呢?从概念上判断,如果一段内存中的数据被经常访问,那么就不应该被交换到外部设备上,因为这样的数据如果交换出去的话会导致系统响应速度严重下降。内存管理需要将内存区分为活跃的( Active )和不活跃的( Inactive ),再加上一个进程使用的用户空间内存映射包括文件影射( file )和匿名影射( anon ),所以就包括了 Active ( anon )、 Inactive ( anon )、 Active ( file )和 Inactive ( file )。你说神马?啥是文件影射( file )和匿名影射( anon )?好吧,我们可以这样简单的理解,匿名影射主要是诸如进程使用 malloc 和 mmap 的 MAP_ANONYMOUS 的方式申请的内存,而文件影射就是使用 mmap 影射的文件系统上的文件,这种文件系统上的文件既包括普通的文件,也包括临时文件系统( tmpfs )。这意味着, Sys V 的 IPC 和 POSIX 的 IPC ( IPC 是进程间通信机制,在这里主要指共享内存,信号量数组和消息队列)都是通过文件影射方式体现在用户空间内存中的。这两种影射的内存都会被算成进程的 RSS ,但是也一样会被显示在 cache 的内存计数中,在相关 cgroup 的另一项统计中,共享内存的使用和文件缓存( file cache )也都会被算成是 cgroup 中的 cache 使用的总量。这个统计显示的方法是:
[root@zorrozou-pc ~]# cat /cgroup/memory/memory.stat
cache 94429184
rss 102973440
rss_huge 50331648
mapped_file 21512192
swap 0
pgpgin 656572990
pgpgout 663474908
pgfault 2871515381
pgmajfault 1187
inactive_anon 3497984
active_anon 120524800
inactive_file 39059456
active_file 34484224
unevictable 0
hierarchical_memory_limit 9223372036854775807
hierarchical_memsw_limit 9223372036854775807
total_cache 94429184
total_rss 102969344
total_rss_huge 50331648
total_mapped_file 21520384
total_swap 0
total_pgpgin 656572990
total_pgpgout 663474908
total_pgfault 2871515388
total_pgmajfault 1187
total_inactive_anon 3497984
total_active_anon 120524800
total_inactive_file 39059456
total_active_file 34484224
total_unevictable 0
好吧,说了这么半天终于联系到一个 cgroup 的内存限制相关的文件了。在这需要说明的是,你之所以看见我废话这么多,是因为我们必须先基本理清楚 Linux 系统的内存管理方式,才能进一步对 cgroup 中的内存限制做规划使用,否则同样的名词会有很多的歧义。就比如我们在观察某一个 cgroup 中的 cache 占用数据的时候,我们究竟该怎么理解它?真的把它当成空闲空间来看么?
我们撤的有点远,回过头来说说这些跟 Swap 有什么关系?还是刚才的问题,什么内容该被从内存中交换出去呢?文件 cache 是一定不需要的,因为既然是 cache ,就意味着它本身就是硬盘上的文件(当然你现在应该知道了,它也不仅仅只有文件),那么如果是硬盘上的文件,就不用 swap 交换出去,只要写回脏数据,保持数据一致之后清除就可以了,这就是刚才说过的缓存清楚机制。但是我们同时也要知道,并不是所有被标记为 cache 的空间都能被写回硬盘的(是的,比如共享内存)。那么能交换出去内存应该主要包括有 Inactive ( anon )这部分内存。主要注意的是,内核也将共享内存作为计数统计近了 Inactive ( anon )中去了(是的,共享内存也可以被 Swap )。还要补充一点,如果内存被 mlock 标记加锁了,则也不会交换,这是对内存加 mlock 锁的唯一作用。刚才我们讨论的这些计数,很可能会随着 Linux 内核的版本改变而产生变化,但是在比较长的一段时间内,我们可以这样理解。
我们基本搞清了 swap 这个机制的作用效果,那么既然 swap 是内部设备和外部设备的数据拷贝,那么加一个缓存就显得很有必要,这个缓存就是 swapcache ,在 memory.stat 文件中, swapcache 是跟 anon page 被一起记录到 rss 中的,但是并不包含共享内存。另外再说明一下, HugePages 也是不会交换的。显然,当前的 swap 空间用了多少,总共多少,这些我们也可以在相关的数据中找到答案。
以上概念中还有一些名词大家可能并不清楚其含义,比如 RSS 或 HugePages 。请自行查资料补上这些知识。为了让大家真的理解什么是 RSS ,请思考 ps aux 命令中显示的 VSZ , RSS 和 cat /proc/pid/smaps 中显示的: PSS 这三个进程占用内存指标的差别?
搞清楚了谁该 swap ,那么还要知道什么时候该 swap 。这看起来比较简单,内存耗尽而且 cache 也没什么可以回收的时候就应该触发 swap 。其实现实情况也没这么简单,实际上系统在内存压力可能不大的情况下也会 swap ,这种情况并不是我们今天要讨论的范围。
思考题:除了内存被耗尽的时候要 swap ,还有什么时候会 swap ?如何调整内核 swap 的行为?如何查看当前系统的 swap 空间有哪些?都是什么类型?什么是 swap 权重? swap 权重有什么意义?
其实绝大多数场景下,什么时候 swap 并不重要,而 swap 之后的事情相对却更重要。大多数的内存不够用,只是临时不够用,比如并发突增等突发情况,这种情况的特点是时间持续短,此时 swap 机制作为一种临时的中转措施,可以起到对业务进程的保护作用。因为如果没有 swap ,内存耗尽的结果一般都是触发 oom killer ,会杀掉此时积分比较高的进程。如果更严重的话,内存不够用还会触发进程 D 状态死锁,这一般发生在多个进程同时要申请内存的时候,此时 oom killer 机制也可能会失效,因为需要被干掉的积分比较高的进程很可能就是需要申请内存的进程,而这个进程本身因为正在争抢内存而导致陷入 D 状态,那么此时 kill 就可能是对它无效的。
但是 swap 也不是任何时候都有很好的保护效果。如果内存申请是长期并大量的,那么交换出去的数据就会因为长时间驻留在外部设备上,导致进程调用这段内存的几率大大增加,当进程很频繁的使用它已经被交换出去的内存时,就会让整个系统处在 io 繁忙的状态,此时进程的响应速度会严重下降,导致整个系统夯死。对于系统管理员来说,这种情况是完全不能接受的,因为故障之后的第一要务是赶紧恢复服务,但是 swap 频繁使用的 IO 繁忙状态会导致系统除了断电重启之外,没有其它可靠手段可以让系统从这种状态中恢复回来,所以这种情况是要尽力避免的。此时,如果有必要,我们甚至可以考虑不用 swap ,哪怕内存过量使用被 oom ,或者进程 D 状态都是比 swap 导致系统卡死的情况更好处理的状态。如果你的环境需求是这样的,那么可以考虑关闭 swap 。
刚才我们从系统宏观的角度简要说明了一下什么是 buffer / cache 以及 swap 。下面我们从一个更加微观的角度来把一个内存申请的过程以及相关机制什么时候触发给串联起来。本文描述的过程是基于 Linux 3.10 内核版本的, Linux 4.1 基本过程变化不大。如果你想确认在你的系统上究竟是什么样子,请自行翻阅相关内核代码。
进程申请内存可能用到很多种方法,最常见的就是 malloc 和 mmap 。但是这对于我们并不重要,因为无论是 malloc 还是 mmap ,或是其他的申请内存的方法,都不会真正的让内核去给进程分配一个实际的物理内存空间。真正会触发分配物理内存的行为是缺页异常。
缺页异常就是我们可以在 memory.stat 中看到的 total_pgfault ,这种异常一般分两种,一种叫 major fault ,另一种叫 minor fault 。这两种异常的主要区别是,进程所请求的内存数据是否会引发磁盘 io ?如果会引发,就是一个 majfault ,如果不引发,那就是 minfault 。就是说如果产生了 major fault ,这个数据基本上就意味着已经被交换到了 swap 空间上。
缺页异常的处理过程大概可以整理为以下几个路径:
首先检查要访问的虚拟地址是否合法,如果合法则继续查找和分配一个物理页,步骤如下:
如果需要申请新内存,则都会通过 allocpage_vma 申请新内存,而这个函数的核心方法是_alloc_pages_nodemask ,也就是 Linux 内核著名的内存管理系统伙伴系统的实现。
分配过程先会检查空闲页表中有没有页可以申请,实现方法是: getpage_from_freelist ,我们并不关心正常情况,分到了当然一切 ok 。更重要的是异常处理,如果空闲中没有,则会进入_alloc_pages_slowpath 方法进行处理。这个处理过程的主逻辑大概这样:
当然以上逻辑要符合一些条件,但是这一般都是系统默认的状态,比如,你必须启用 oom killer 机制等。另外这个逻辑中有很多其它状态与本文无关,比如检查内存水印、检查是否是高优先级内存申请等等,当然还有关于 numa 节点状态的判断处理,我没有一一列出。另外,以上逻辑中,不仅仅只有清理 cache 的时候会使进程进入 D 状态,还有其它逻辑也会这样做。这就是为什么在内存不够用的情况下, oom killer 有时也不生效,因为可能要干掉的进程正好陷入这个逻辑中的 D 状态了。
以上就是内存申请中,大概会发生什么的过程。当然,我们这次主要是真对本文的重点 cgroup 内存限制进行说明,当我们处理限制的时候,更多需要关心的是当内存超限了会发生什么?对边界条件的处理才是我们这次的主题,所以我并没有对正常申请到的情况做细节说明,也没有对用户态使用 malloc 什么时候使用 sbrk 还是 mmap 来申请内存做出细节说明,毕竟那是程序正常状态的时候的事情,后续可以另写一个内存优化的文章主要讲解那部分。
下面我们该进入正题了:
当限制内存时,我们最好先想清楚如果内存超限了会发生什么?该怎么处理?业务是否可以接受这样的状态?这就是为什么我们在讲如何限制之前说了这么多基础知识的“废话”。其实最简单的莫过于如何进行限制了,我们的系统环境还是沿用上一次讲解 CPU 内存隔离的环境,使用 cgconfig 和 cgred 服务进行 cgroup 的配置管理。还是创建一个 zorro 用户,对这个用户产生的进程进行内存限制。基础配置方法不再多说,如果不知道的请参考这个文档。
环境配置好之后,我们就可以来检查相关文件了。内存限制的相关目录根据 cgconfig.config 的配置放在了 /cgroup/memory 目录中,如果你跟我做了一样的配置,那么这个目录下的内容应该是这样的:
[root@zorrozou-pc ~]# ls /cgroup/memory/
cgroup.clone_children memory.failcnt memory.kmem.slabinfo memory.kmem.usage_in_bytes memory.memsw.limit_in_bytes memory.oom_control memory.usage_in_bytes shrek
cgroup.event_control memory.force_empty memory.kmem.tcp.failcnt memory.limit_in_bytes memory.memsw.max_usage_in_bytes memory.pressure_level memory.use_hierarchy tasks
cgroup.procs memory.kmem.failcnt memory.kmem.tcp.limit_in_bytes memory.max_usage_in_bytes memory.memsw.usage_in_bytes memory.soft_limit_in_bytes zorro
cgroup.sane_behavior memory.kmem.limit_in_bytes memory.kmem.tcp.max_usage_in_bytes memory.meminfo memory.move_charge_at_immigrate memory.stat notify_on_release
jerry memory.kmem.max_usage_in_bytes memory.kmem.tcp.usage_in_bytes memory.memsw.failcnt memory.numa_stat memory.swappiness release_agent
其中, zorro 、 jerry 、 shrek 都是目录概念跟 cpu 隔离的目录树结构类似。相关配置文件内容:
[root@zorrozou-pc ~]# cat /etc/cgconfig.conf mount {
cpu = /cgroup/cpu;
cpuset = /cgroup/cpuset;
cpuacct = /cgroup/cpuacct;
memory = /cgroup/memory;
devices = /cgroup/devices;
freezer = /cgroup/freezer;
net_cls = /cgroup/net_cls;
blkio = /cgroup/blkio;
}
group zorro {
cpu {
cpu.shares = 6000;
# cpu.cfs_quota_us = "600000";
}
cpuset {
# cpuset.cpus = "0-7,12-19";
# cpuset.mems = "0-1";
}
memory {
}
}
配置中添加了一个真对 memory 的空配置项,我们稍等下再给里面添加配置。
[root@zorrozou-pc ~]# cat /etc/cgrules.conf
zorro cpu,cpuset,cpuacct,memory zorro
jerry cpu,cpuset,cpuacct,memory jerry
shrek cpu,cpuset,cpuacct,memory shrek
文件修改完之后记得重启相关服务:
[root@zorrozou-pc ~]# service cgconfig restart
[root@zorrozou-pc ~]# service cgred restart
让我们继续来看看真对内存都有哪些配置参数:
[root@zorrozou-pc ~]# ls /cgroup/memory/zorro/
cgroup.clone_children memory.kmem.failcnt memory.kmem.tcp.limit_in_bytes memory.max_usage_in_bytes memory.memsw.usage_in_bytes memory.soft_limit_in_bytes
cgroup.event_control memory.kmem.limit_in_bytes memory.kmem.tcp.max_usage_in_bytes memory.meminfo memory.move_charge_at_immigrate memory.stat notify_on_release
cgroup.procs memory.kmem.max_usage_in_bytes memory.kmem.tcp.usage_in_bytes memory.memsw.failcnt memory.numa_stat memory.swappiness tasks
memory.failcnt memory.kmem.slabinfo memory.kmem.usage_in_bytes memory.memsw.limit_in_bytes memory.oom_control memory.usage_in_bytes
memory.force_empty memory.kmem.tcp.failcnt memory.limit_in_bytes memory.memsw.max_usage_in_bytes memory.pressure_level memory.use_hierarchy
首先我们已经认识了 memory.stat 文件了,这个文件内容不能修改,它实际上是输出当前 cgroup 相关内存使用信息的。常见的数据及其含义我们刚才也已经说过了,在此不再复述。
memory.memsw.limit_in_bytes:内存+ swap 空间使用的总量限制。
memory.limit_in_bytes:内存使用量限制。
这两项的意义很清楚了,如果你决定在你的 cgroup 中关闭 swap 功能,可以把两个文件的内容设置为同样的值即可。至于为什么相信大家都能想清楚。
memory.oom_control:内存超限之后的 oom 行为控制。
这个文件中有两个值:
oom_kill_disable 0
默认为 0 表示打开 oom killer ,就是说当内存超限时会触发干掉进程。如果设置为 1 表示关闭 oom killer ,此时内存超限不会触发内核杀掉进程。而是将进程夯住( hang / sleep ),实际上内核中就是将进程设置为 D 状态,并且将相关进程放到一个叫做 OOM-waitqueue 的队列中。这时的进程可以 kill 杀掉。如果你想继续让这些进程执行,可以选择这样几个方法:
说白了就是,此时只有当 cgroup 中有更多内存可以用了,在 OOM-waitqueue 队列中被挂起的进程就可以继续运行了。
under_oom 0
这个值只是用来看的,它表示当前的 cgroup 的状态是不是已经 oom 了,如果是,这个值将显示为 1 。我们就是通过设置和监测这个文件中的这两个值来管理 cgroup 内存超限之后的行为的。在默认场景下,如果你使用了 swap ,那么你的 cgroup 限制内存之后最常见的异常效果是 IO 变高,如果业务不能接受,我们一般的做法是关闭 swap ,那么 cgroup 内存 oom 之后都会触发 kill 掉进程,如果我们用的是 LXC 或者 Docker 这样的容器,那么还可能干掉整个容器。当然也经常会因为 kill 进程的时候因为进程处在 D 状态,而导致整个 Docker 或者 LXC 容器根本无法被杀掉。至于原因,在前面已经说的很清楚了。当我们遇到这样的困境时该怎么办?一个好的办法是,关闭 oom killer ,让内存超限之后,进程挂起,毕竟这样的方式相对可控。此时我们可以检查 under_oom 的值,去看容器是否处在超限状态,然后根据业务的特点决定如何处理业务。我推荐的方法是关闭部分进程或者重启掉整个容器,因为可以想像,容器技术所承载的服务应该是在整体软件架构上有容错的业务,典型的场景是 web 服务。容器技术的特点就是生存周期短,在这样的场景下,杀掉几个进程或者几个容器,都应该对整体服务的稳定性影响不大,而且容器的启动速度是很快的,实际上我们应该认为,容器的启动速度应该是跟进程启动速度可以相媲美的。你的业务会因为死掉几个进程而表现不稳定么?如果不会,请放心的干掉它们吧,大不了很快再启动起来就是了。但是如果你的业务不是这样,那么请根据自己的情况来制定后续处理的策略。
当我们进行了内存限制之后,内存超限的发生频率要比使用实体机更多了,因为限制的内存量一般都是小于实际物理内存的。所以,使用基于内存限制的容器技术的服务应该多考虑自己内存使用的情况,尤其是内存超限之后的业务异常处理应该如何让服务受影响的程度降到更低。在系统层次和应用层次一起努力,才能使内存隔离的效果达到最好。
memory.memsw.usage_in_bytes:当前 cgroup 的内存+ swap 的使用量。
memory.usage_in_bytes:当前 cgroup 的内存使用量。
memory.max_usage_in_bytes:cgroup 最大的内存+ swap 的使用量。
memory.memsw.max_usage_in_bytes:cgroup 的最大内存使用量。
Linux 的内存限制要说的就是这么多了,当我们限制了内存之后,相对于使用实体机,实际上对于应用来说可用内存更少了,所以业务会相对更经常地暴露在内存资源紧张的状态下。相对于虚拟机( kvm , xen ),多个 cgroup 之间是共享内核的,我们可以从内存限制的角度思考一些关于“容器”技术相对于虚拟机和实体机的很多特点:
也许我们还可以从中得到更多的理解,大家一起来想喽?
由于字数限制,本文内容并不完整。完整内容请见 PDF 。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.