cathy
cathy
是这样的,这里有个k8s的集群,目前200多个pod,准备scale到1000,目前qos已经满足测试了。但是里面的服务不太稳定,老是会restart pod,这种情况下,频繁的重启,每次重新构建网络栈for new pod, 对于系统的开销要不要考虑呢,还是取决于cni plugin的实现有所不同,目前使用的是flannel,:) ``` [root@paas net.d]# pod|wc -l 231 ```
是的scale到1000的时候,会出现FailedCreatePodSandBox error,目前更新cni已经解决了,但是还不清楚具体的原因。看看问题还会不会复现吧.sad. ``` [root@paas-m1 ~]# kubectl version --short Client Version: v1.11.0+d4cacc0 Server Version: v1.11.0+d4cacc0 cat
``` 修改了cni的version value ,不知道是不是kube-spray的原因 "cniVersion": "0.3.0", 你说的sum of pod 是那个配置,我还真没注意到 ```
``` 以前的版本 cniVersion="v0.2.0" node information paas-m1 Ready compute,infra,master 6d v1.11.0+d4cacc0 paas-m2 Ready compute,infra,master 6d v1.11.0+d4cacc0 paas-m3 Ready compute,infra,master 6d v1.11.0+d4cacc0 paas-w1 Ready compute 6d v1.11.0+d4cacc0 paas-w2 Ready compute 6d v1.11.0+d4cacc0...
``` 是的,目前追踪版本的release feature,考虑到目前的k8s的版本问题,准备后续优先升级k8s的版本。 ```