背景 线上部分宿主机dockerd占用内存过大,有的甚至超过100G,而整个宿主上的容器使用的内存还不如dockerd一个进程使用的多,现在的
背景 线上kubernetes集群从创建sts到创建pod需要时间很长,分钟级别,但是调度却很快。偶尔还会出现导致kube-odin任务失败(
背景 通过监控看到弹性云用户平台后端程序kube-odin的内存使用量在稳定增加,每次上线完又会恢复,可以判断出kube-odin中存在内存泄
现象 线上程序一直报错,错误信息:lock failed: context deadline exceeded, retry 排查过程 异常对应代码位置 很明显的是获取锁超时了,由于用的etcd的分布式锁,就怀疑是etc
测试环境 10.0.13.19 部署harbor,单点,docker-compose的方式部署 4核8G 10.0.13.22 dragonfly的supernode节点 16核64G do
kubernetes设置 k8s 1.10之前需要在kube-apiserver、kube-controller-manager、kube-sche