资源申请和限制
Kubernetes 默认为 Pod 提供了对 CPU 和内存两类资源的申请和限制功能,其中 Pod 的资源申请量会影响该 Pod 的调度结果。
Pod 的资源申请和限制都是针对其中的 单个容器 而言的,pod.spec.containers.resources.requests
决定了容器的 资源申请量 ,pod.spec.containers.resources.limits
决定了容器的 资源限制量。
资源申请
上面提到过,Kubernetes 默认支持指定 Pod 中每个容器的 CPU 和内存两类资源的 申请量。
🪐 资源申请量 会影响 Pod 的 调度结果,因为 Pod 的调度是以申请量为准的,而不是以 Pod 的资源实际使用量。所以 Pod 的资源实际使用量 不受该字段的限制,可高于它,也可以低于它。
包含资源申请的 Pod 配置文件
下面展示一个包含了资源申请的 Pod 的配置文件案例,该 Pod 申请了 1/5 个 CPU 线程
以及 10 MB 内存
:
资源申请量对资源调度的影响
每个 Node 的 CPU 和内存数量是一致的,可以通过 kubectl describe nodes
中输出的 Capacity
和 Allocatable
看到其可分配的资源数,这是由每个 Node 上的 Kubelet 组件 会向 API 服务器 报告的;并且该命令可以查看 Node 上现有所有 Pod 的资源申请量以及总分配的资源量。
调度过程
🌈 在调度 Pod 过程中的,不关注各类资源在当前时刻的实际使用量,而只关心节点上部署的所有 Pod 的资源申请量之和,这就是调度过程中 Predicate 过程 做的事,从而筛选出可以部署该 Pod 请求的所有 Node。在 Priority 过程 会从所有候选 Node 中筛选出最佳 Node,其中有两个基于资源请求量的优先级排序优选函数:
LeastRequestedPriority
:优先将 Pod 调度至 请求量最少 的 Node(目标是负载均衡);MostRequestedPriority
:优先将 Pod 调度至 请求量最多 的 Node(目标是节点资源利用率最高);
调度失败情况
调度失败的 Pod 状态会卡在 Pending
状态,通过 kubectl describe pod
可以看到其提示调度失败,它会间隔一段时间后重新调度,直至调度成功为止。
CPU 的弹性使用
Pod 指定 CPU 的申请量时,对应的是底层 Docker 容器的 --cpu-share
字段,该字段是一个相对值。
打一个比方,假设有一个 1 核单线程的宿主机,上面创建了两个 Pod,一个 Pod A 的 CPU 申请量为 200m,另一个 B 为 400m,此时该 Node 还剩下 400m 未分配。此时两个 Pod 的资源实际使用量是怎样的呢?分下面三种情况讨论:
A 跑满,B 空闲:此时 A 可以使用整个宿主机的所有 CPU 时间;
A 空闲,B 跑满:此时 B 可以使用整个宿主机的所有 CPU 时间;
A 跑满,B 跑满:由于 A 的申请量与 B 相比为
1:2
,因此 A 可以使用约 333m,B 可以使用约 666m;
从上述结果可以看出,Docker 容器的 --cpu-share
可以实现同一个 Node 上的容器的 CPU 资源的弹性比例分配。
资源限制
上面提到过,Kubernetes 默认支持指定 Pod 中每个容器的 CPU 和内存两类资源的 限制量。
限制内存上限的原因
☀️ 在上一节提到过,Pod 的 CPU 资源的使用是可以弹性伸缩的,但是内存资源不一样,一旦占用,除非进程主动释放,否则是无法压缩的,因此为了保证可靠的服务质量,有必要对内存资源设置资源上限。
包含资源限制的 Pod 配置文件
下面展示创建一个包含资源限制的 Pod 的配置文件案例,该 Pod 中的一个容器最多可以使用 1个 CPU 线程
以及 20 MB 内存
:
资源超卖
资源超卖的意思是指宿主机中的 Pod 的 资源限制量总和 超过了宿主机的 实际资源总量。
在这种情况下,对于 CPU 资源是无所谓的,因为容器对 CPU 资源本身可以弹性使用,只是会分配不到那么多的 CPU 时间而已,还是可以正常运行的。
🔥 但是对于 内存 资源不行,当进程尝试申请分配比 限制量 更多的内存时,会被 OOMKilled
,即 Out Of Memory
,该状态可使用 kubectl describe nodes
看到。若 Pod 的重启策略为 Always
或 OnFailure
,则进程会立即重启,但是若继续超限,仍然会被继续杀死。这种情况下,Pod 的状态会处于 CrashLoopBackOff
,表示该 Pod 由于某些原因无法正常启动,但是 Kubernetes 仍然在尝试重启它。
一些坑
🚀 在容器内看到的始终是 Node 的 CPU 总核数 以及 内存总量。这意味着如果跑在容器内的应用尝试根据查看到的资源信息分配线程数或内存量时,可能会造成超卖导致 Pod 被 OOMKilled
的问题。
定义和申请自定义资源
Kubernetes 允许用户为 Node 添加自定义的资源并初始化该资源的总量。
定义资源
可以通过向 API 服务器发起 PATCH 请求,将定义的资源名及资源总量放入请求体中提交。
🍓 资源名可以是不以 kubernetes.io
域名开头的任意值,例如 example.org/my-resource
。
🥑 自定义资源的初始总量必须是整数(例如不能设为 100m;可以设为 1000m,或者直接设为 1)或者带 Mi
, Gi
这种单位的整数!!对于前者,容器针对该资源申请或限制时同样只能用整数;对于后者,则同样只能用整数,但是单位可以使用 Mi
, Gi
这类单位中任意一种。该值降自动从 Node 的 capacity
字段复制到 allocatable
字段。
下面展示一个例子,创建一个名为 example.com/ysj
的资源,其初始总量为 800Gi
:
删除资源
相应的,可以通过向 API 服务器发起 PATCH 请求,将自定义的资源删除。
下面展示一个例子,删除上面创建的名为 example.com/ysj
的资源:
创建申请自定义资源的 Pod
创建申请自定义资源的 YAML 配置文件的方式与申请 CPU、内存等资源的 Pod 的类似,都是在 pod.spec.resources.request
中进行指定。比如申请上面创建的 example.com/ysj
资源,申请量为 200 MB
:
⚠️ 当申请自定义资源时,必须指定 limits
即资源限制量,这是因为自定义的资源都是不可过度使用的,因此要求容器必须指定资源限制量,否则会不允许创建。
⚠️ 在指定申请和限制自定义资源量时,除非使用 Gi
, Mi
这种单位,否则只能使用整数!!连 m
都不可以使用。
Last updated
Was this helpful?