🌼花折 - KubeDoor 是一个使用 Python + Vue 开发,基于 K8S 准入控制机制的微服务资源管控平台。专注微服务每日高峰时段的资源视角,实现了微服务的资源分析统计与强管控,确保微服务资源的资源申请率和真实使用率一致。📀项目仓库: https://github.com/CassInfra/KubeDoor
如果觉得项目不错,麻烦动动小手点个⭐️Star⭐️ 如果你还有其他想法或者需求,欢迎在 issue 中交流
需要有cadvisor
和kube-state-metrics
这 2 个 JOB ,才能采集到 K8S 的以下指标
container_cpu_usage_seconds_total
container_memory_working_set_bytes
container_spec_cpu_quota
kube_pod_container_info
kube_pod_container_resource_limits
kube_pod_container_resource_requests
用于 K8S Mutating Webhook 的强制 https 认证
kubectl apply -f https://StarsL.cn/kubedoor/00.cert-manager_v1.16.2_cn.yaml
用于存储采集的指标数据与微服务的资源信息
# 默认使用 docker compose 运行,部署在/opt/clickhouse 目录下。
curl -s https://StarsL.cn/kubedoor/install-clickhouse.sh|sudo bash
# 启动 ClickHouse (启动后会自动初始化表结构)
cd /opt/clickhouse && docker compose up -d
如果已有 ClickHouse ,请逐条执行以下 SQL ,完成初始化表结构
https://StarsL.cn/kubedoor/kubedoor-init.sql
wget https://StarsL.cn/kubedoor/kubedoor.tgz
tar -zxvf kubedoor.tgz
# 编辑 values.yaml 文件,请仔细阅读注释,根据描述修改配置内容。
vim kubedoor/values.yaml
# 使用 helm 安装(注意在 kubedoor 目录外执行。)
helm install kubedoor ./kubedoor
# 安装完成后,所有资源都会部署在 kubedoor 命名空间。
使用 K8S 节点 IP + kubedoor-web 的 NodePort 访问,默认账号密码都是 kubedoor
点击配置中心
,输入需要采集的历史数据时长,点击采集并更新
,即可采集历史数据并更新高峰时段数据到管控表。
默认会从 Prometheus 采集 10 天数据(建议采集 1 个月),并将 10 天内最大资源消耗日的数据写入到管控表,如果耗时较长,请等待采集完成或缩短采集时长。重复执行
采集并更新
不会导致重复写入数据,请放心使用,每次采集后都会自动将 10 天内最大资源消耗日的数据写入到管控表。
点击管控状态
的开关,显示管控已启用
,表示已开启。
部署完成后,默认不会开启管控机制,你可以按上述操作通过 WebUI 来开关管控能力。特殊情况下,你也可以使用kubectl
来开关管控功能:
# 开启管控
kubectl apply -f https://StarsL.cn/kubedoor/99.kubedoor-Mutating.yaml
# 关闭管控
kubectl delete mutatingwebhookconfigurations kubedoor-webhook-configuration
开启管控机制后,目前只会拦截deployment 的创建,更新,扩缩容操作;管控pod 数,需求值,限制值。不会控制其它操作和属性。
开启管控机制后,通过任何方式对 Deployment 执行扩缩容或者更新操作都会受到管控。
开启管控机制后,扩缩容或者重启 Deployment 时,Pod 数优先取指定 Pod
字段,若该字段为-1 ,则取当日 Pod
字段。
你通过 Kubectl 对一个 Deployment 执行了扩容 10 个 Pod 后,会触发拦截机制,到数据库中去查询该微服务的 Pod ,然后使用该值来进行实际的扩缩容。(正确的做法应该是在 KubeDoor-Web 来执行扩缩容操作。)
你通过某发布系统修改了 Deployment 的镜像版本,执行发布操作,会触发拦截机制,到数据库中去查询该微服务的 Pod 数,需求值,限制值,然后使用这些值值以及新的镜像来进行实际的更新操作。
你对 deployment 的操作不会触发 deployment 重启的,也没有修改 Pod 数的: 触发管控拦截后,只会按照你的操作来更新 deployment (不会重启 Deployment )
你对 deployment 的操作不会触发 deployment 重启的,并且修改 Pod 数的: 触发管控拦截后,Pod 数会根据数据库的值以及你修改的其它信息来更新 Deployment 。(不会重启 Deployment )
你对 deployment 的操作会触发 deployment 重启的: 触发管控拦截后,会到数据库中去查询该微服务的 Pod 数,需求值,限制值,然后使用这些值以及你修改的其它信息来更新 Deployment 。(会重启 Deployment )
感谢如下优秀的项目,没有这些项目,不可能会有KubeDoor:
后端技术栈
前端技术栈
特别鸣谢
文章内图片无法访问,无法编辑了,
烦请到github查看https://github.com/CassInfra/KubeDoor
gitee也有同步:https://gitee.com/starsl/KubeDoor
1
roofdocs 1 天前
这个微服务 AI 评分 /微服务 AI 缩容 里面的 AI 是什么 AI ,如何实现的,是自带模型还是调 API 或者用 ChatGPT?
|
2
hackroad 1 天前
看起来不错,让小弟去测试环境试一下
|