Kubernetes 中一种细力度控制 Pod 部署的方案
共 2668字,需浏览 6分钟
·
2021-02-26 15:41
问题背景
并不是所有的 Kubernetes 集群都有很大数量的机器, 一个 Pod 也有可能占用几十 G 内存, 希望读者能在阅读前就了解这样的现实.
在我管控的集群中, 有个集群机器数量比较少(大概 7~8 个计算节点), 配置也一般(本文按照64核, 128G
这样的配置来说明, 未来有可能有更好或者更差的机器), 集群的拥有者会希望他的机器资源能够被有效的利用, 最好在 80%左右, 作为管理员的我就需要考虑下这个问题.
默认部署策略的使用
该集群中有几个应用的内存使用率很高, 每个 Pod 启动后内存会逐渐上升, 我们能接受的范围大概在 20G 左右. 对于这种大应用, 资源申请不能过高或者过低, 因此程序中的资源配置如下, requests 与 limits 相同.
requests:
cpu: "10000m"
memory: "21474836480"
limits:
cpu: "10000m"
memory: "21474836480"
以 128G 的节点为例, 每个节点我们期望部署 4/5 个 Pod, 有以下原因:
如果部署 6 个, 内存超过 90%的使用率, 监控会报警; 如果所有节点都部署 5 个, 那么每次滚动更新时就会有可能报警;
比较理想的方案是某些节点 4 个 Pod, 某些节点 5 个 Pod, 滚动更新时, 从 4 个 Pod 的节点开始, 逐步替换 Pod.
但是这就带来了一个问题, Kuberntes 的默认节点选择策略是比较自由的, 如果一台机器有资源, 那么它有一定可能被选择部署.
5 个 Pod 总共 100G mem 的请求资源, 就存在这么一种可能性, 某个节点的 Pod 有 6 个, 某个节点的 Pod 有 3 个, 默认的分配策略是有这种可能性的.
我们在使用默认策略时遇到了好多次这样的部署结果, 只能用kubectl delete pod
手动来进行修整. 用同事的话来讲就是蛋碎了.
一个比较简单的控制策略
kubernetes 中针对节点的可分配资源是可以定义的, 我们限制节点保留 10%的资源, 用 ansible 生成的 kubelet 参数可以这么加
--system-reserved=memory={{(ansible_memtotal_mb * 0.1) | int}}Mi
那么, 会保证不发生报警, 但是各个机器之间的负载还是有可能不均衡, 只能部分解决问题.
精细控制 Pod 分布
因为我们不止部署了一个应用, 而且有些应用需要特殊的对待, 肯定不能完全寄希望于自动的分配策略. 机器本身较少, 而且想要实现较高的利用率时, 支持用户手工调整 Pod 数量是有必要的.
有关精细控制节点中的 Pod 数量, 我们调研了几种方案:
Pod 拓扑分布约束[1]
该方案实现较为复杂, 它引入了域的概念, 将节点分组, 每个组为一个域, 针对各个域中部署的 Pod 数量进行限制, 比如两个域之间的 Pod 数量不能相差 1. 如果用这个方案解决负载不均衡的问题, 那么会引入新的问题: 如果我们增加了新的机器, 而新机器的性能配置都较好, 那么 Pod 数量不能相差 1, 那么新机器的性能不能被充分利用.
说真的, 我想不到这个方案应用的场景, 如果大家有合适的运用场景及思路可以在评论里面告诉我, 我也学习下.
节点增加拓展资源[2]
我个人认为这个方案是一种折衷方案, 配置不太复杂也能达到想要的效果. 具体的实现是增加新的资源限制
书写控制策略时配合 cpu 以及 mem 来使用:
用户可以手动修改节点的资源限制, 也可以针对某几个应用来设置。当我们有了不同配置的新机器后, 可以针对新机器修改该选项到合适的值。
我认为这个方案(自动选择+手工配置)已经基本解决了我们的问题. 不过有个小缺点就是: 每次添加新的机器都需要设置资源, 否则设置会导致 Pod 无法分配到新节点中.
总结
我们在解决手动部署问题时也讨论了一下 Kubernetes 更加适合的场景: 拥有大量的服务器; 服务器中运行微小服务的情况; 并且该集群最好能控制资源利用率在 80%以下, 这样遇到了突发的流量可以做到有空余时间去扩容.
这篇文章中, 我提到了三个处理方案, 大家可以针对自己的情况自己去选择:
在建立集群时就考虑下, 给每个节点预留资源, Pod 的拓扑分布约束我暂时没想到合适的场景 对于某些机器较少的集群, 用户想要实现细力度的控制, 我还是推荐使用扩展资源来限制.
参考资料
Pod 拓扑分布约束: https://kubernetes.io/docs/concepts/workloads/pods/pod-topology-spread-constraints/
[2]节点增加拓展资源: https://kubernetes.io/docs/tasks/administer-cluster/extended-resource-node/#advertise-a-new-extended-resource-on-one-of-your-nodes
原文链接:https://corvo.myseu.cn/2021/02/23/2021-02-23-kubernetes%E4%B8%AD%E4%B8%80%E7%A7%8D%E7%BB%86%E5%8A%9B%E5%BA%A6%E6%8E%A7%E5%88%B6%E7%A8%8B%E5%BA%8F%E9%83%A8%E7%BD%B2%E7%9A%84%E6%96%B9%E6%A1%88/
你可能还喜欢
点击下方图片即可阅读
云原生是一种信仰 🤘
关注公众号
后台回复◉k8s◉获取史上最方便快捷的 Kubernetes 高可用部署工具,只需一条命令,连 ssh 都不需要!
点击 "阅读原文" 获取更好的阅读体验!
发现朋友圈变“安静”了吗?