1 灵魂拷问
我们在使用 Kubernetes 时是否遇到以下情况:
- 你会不会部署负载的时候将 CPU requests/limits 设置得过低或过高?
- 你会不会部署负载的时候将 内存 requests/limits 设置得过低或过高?
- 又或者你根本不设置 requests/limits?
- request表示什么意思?limits 又是什么意思?
- CPU 设置0.5表示啥意思?为啥又有人写 500m,这又是什么情况?
- 最佳实践又是什么?
- 经常在 Kubernetes 集群种部署负载的时候不设置 CPU
requests
或将 CPUrequests
设置得过低(这样“看上去”就可以在每个节点上容纳更多 Pod )。在业务比较繁忙的时候,节点的 CPU 全负荷运行。业务延迟明显增加,有时甚至机器会莫名其妙地进入 CPU 软死锁等“假死”状态。 - 类似地,部署负载的时候,不设置内存
requests
或者内存requests
设置得过低,这时会发现有些 Pod 会不断地失败重启。而不断重启的这些 Pod 通常跑的是 Java 业务应用。但是这些 Java 应用本地调试运行地时候明明都是正常的。 - 在 Kubernetes 集群中,集群负载并不是完全均匀地在节点间分配的,通常内存不均匀分配的情况较为突出,集群中某些节点的内存使用率明显高于其他节点。
- Kubernetes 作为一个众所周知的云原生分布式容器编排系统,一个所谓的事实上标准,其调度器不是应该保证资源的均匀分配吗?
诸如此类问题你是不是已经晕了呢?那么我们一起通过本篇文章学习 Kubernetes 的资源管理和模型,等本篇文章结束时,相信你一定可以很轻易的回答以上问题。
2 什么是 requests 和 limits?
我们都知道 Kubernetes 中最小的原子调度单位是Pod,那么就意味着资源管理和资源调度相关的属性都应该Pod对象的字段,其中我们最常见的就是 Pod 的 CPU 和内存配置,而为了实现 Kubernetes 集群中资源的有效调度和充分利用,Kubernetes采用 requests 和 limits 两种限制类型来对CPU和内存资源进行容器粒度的分配。
resources: requests: cpu: "1" memory: "500Mi" limits: cpu: "100m" memory: "1000Mi"
下面我们首先来了解一下上面这段 yaml 文件中字段的含义:requests 和 limits:
- requests 定义了对应的容器所需要的最小资源量。
- limits 定义了对应容器最大可以消耗的资源上限。
- cpu 等于1一般等同于1CPU 核心,1个VCPU或者一个超线程,具体要看服务器的CPU。而 limits 这里设置的 100m 则叫做100毫核,100m就表示0.1个核,所以这里也可以用0.1代替。
- memory 等于500Mi,(备注:1Mi=10241024;1M=10001000)
接下来我们来初步理解 requests 和 limits 这两个资源限制类型,在 Kubernetes 对 CPU 和内存资源限额的设计,通常是指用户在提交 Pod 时,可以声明一个相对较小的 requests 值供调度器使用,而 Kubernetes 真正设置给容器 Cgroups 的,则是相对较大的 limits 值。所以一般来说,在调度的时候 requests 比较重要,在运行时 limits 比较重要。
而对应实际的业务场景来说,以 java 应用为例,requests 对应的就是JVM虚拟机所需资源的最小值,而 limits 对应的就是 JVM 虚拟机所能够使用的资源最大值。以内存资源为例一般就是指:Xms 和 Xmx,如果 requests 值设置的小于JVM虚拟机 Xms 的值,那么就会导致 Pod 内存溢出,从而导致 Pod 被杀掉,而后重新创建一个Pod。
那么如果 CPU 资源使用超过了 limits,Pod会不会被杀掉呢?答案是不会,但是被限制。如果没有设置 limits ,Pod 可以使用全部空闲的资源。另外如果设置了 limits而没有设置 requests 时,Kubernetes 默认会将 requests 等于 limits。
这里通常还会将 requests 和 limits 描述的资源分为两类:可压缩资源(compressible resources) 和不可压缩资源(incompressible resources)。这里不难看出CPU这类型资源为可压缩资源,而内存这类型资源为不可压缩资源。所以合理设置不可压缩资源的limits值就相当重要了。
3 理解 Kubernetes 中 Pod 的 Qos
当我们理解 requests 和 limits了之后,我们来想一个问题:当某个 Node 上的内存还剩下 90Mi,这个时候就触发了 Kubernetes 的 Eviction,这个时候 kubelet 就会挑选 Pod 进行删除操作,那么这个时候 kubelet 挑选的依据是什么呢?
当 Kubernetes 所管理的宿主机上不可压缩资源短缺时,就有可能触发 Eviction。 Eviction 的默认阈值如下: memory.available<100Mi nodefs.available<10% nodefs.inodesFree<5% imagefs.available<15%
答案就是依据requests和limits值的设置方式来决定,Kubernetes会将Pod划分成3种不同的Qos级别里面去,根据Pod不同的Qos级别来挑选。
- 首当其冲的就是删除BestEffort级别的Pod,这个级别的Pod完全没有做任何资源限制,即完全没有设置CPU/内存的requests和limits。
- 其次是Burstable级别的Pod,这个级别的Pod至少设置了1个CPU或者内存的requests,但又不满足最高级别的Qos条件。
- 最后才是 Guaranteed 级别的Pod,即Pod同时设置了CPU、内存的requests和limits,并且requests值等于limits的值。并且,Kubernetes 会保证只有当 Guaranteed 级别的 Pod 的资源使用量超过了其 limits 的限制,或者宿主机本身正处于 Memory Pressure 状态(当宿主机的 Eviction 阈值达到后,就会进入该状态)时,Guaranteed 级别的 Pod 才可能被选中进行 Eviction 操作。
可以看下面的表格,以更好的理解:
4 最佳实践
为 namespace 设置资源配额
- ResourceQuotas 限制主要是指该 namespace 下面的所有 Pod 指定一个 requests和limits的总和要小于设置的 requests 和 limits。
- 该 namespace 下每一个容器必须指定 requests 或 limits,否则将不允许创建。
这样子做的好处就是实现了一条隐含的规则,每个人都要遵守。
设置默认的 requests 和 limits
在生产环境中,很多负载 CPU 和内存的所需的资源基本相同,那么我们可以设置好默认的 requests 和 limits,当用户没有指定 requests 和 limits 值,直接使用默认值。
配置启用CPUSET
我们知道,在使用容器的时候,你可以通过设置 cpuset 把容器绑定到某个 CPU 的核上,而不是像 cpushare 那样共享 CPU 的计算能力。这种情况下,由于操作系统在 CPU 之间进行上下文切换的次数大大减少,容器里应用的性能会得到大幅提升。事实上,cpuset 方式,是生产环境里部署在线应用类型的 Pod 时,非常常用的一种方式。
那么如何启用 cpuset 呢?只需要遵循以下2条规则来设置 requests 和 limits 即可:
- 设置 CPU 的 requests 和 limits 的值相等且为整数值。
- 设置 Pod 的 CPU 和内存的 requests 和 limits 值相等,也就是该 Pod 是一个Guaranteed 级别的 Pod。
高负载Pod requests 和 limits 的设置
而对于负载,流量比较高的 Pod,requests 和 limits 的设置需要根据具体的情况分析,需要分析业务的多个维度。例如
- 该服务的容器是 CPU 密集型,还是吃内存型,亦或者是 IO 密集型。
- 该服务是个单点,还是高可用的。
- 这个服务的上下游都是谁?
- 这个服务的历史监控数据是怎么样的?
说了这么多,貌似还是不知道怎么设置。这就给大家一个“标准答案”:、
- 根据历史的 CPU,内存,网络,存储等监控数据,一般 requests 值可以设定为历史数据均值。
- limits 则设置为历史数据均值再增加 30%-50%,当然实际设置还是要根据情况做些微调。
5 总结
本文主要为大家介绍了 Kubernetes 中 requests 和 limits 两种资源限制类型来对资源进行容器粒度的分配,从而实现 Kubernetes 集群中资源的有效调度和充分利用,还提供了一些我的一些实践。欢迎大家留言交流。