flyletc

Results 5 comments of flyletc
trafficstars

我的问题已经解决了,原因是:分支上的代码与打出来的tag代码不一致造成的覆盖率没有变化

> 是没有做相应的实现还是在实现过程中遇到了无法解决的问题? 其实在这两个阶段如果可以使用ngx_socket_tcp去访问其他服务的话也是有意义的,因为这时候是收到了响应的,比如我可以把响应转发给检测服务,所以还是想问下各位大神ngx_socket_tcp这个API为什么会有这样的限制 你好,这个问题有解决吗,我们也遇到了类似的需求

> 具体现象是什么? 具体报错是什么? 现象:k8s部署nacos集群(三个nacos节点),测试停掉某个node节点,按理解高可用场景nacos集群在较短时间内可以恢复使用,实际访问nacos管理后台查看到配置大概2分钟左右恢复正常 服务重新注册到nacos的过程大概需要8分钟左右 报错信息:目前看nacos leader节点挂掉后,服务重新注册到nacos上时间比较长,目前测试大概 Nacos connection exception, Nacos address: http://nacos-headless:8848/nacos 配置: ![image](https://github.com/user-attachments/assets/79a6d6a9-909d-4c37-9d0c-ec1a56006aea) 集群: ![image](https://github.com/user-attachments/assets/7b1fec32-f3b6-43c7-ab52-136f0f900f3b) ![image](https://github.com/user-attachments/assets/063f1226-25d9-4109-ac8b-d9c5f696adb6) ![Uploading image.png…]()

> 具体现象是什么? 具体报错是什么 目前看当我们宕掉leader节点,在集群中解析 nacos-headless有些问题,请问这个有什么好的处理方式吗

> 可以从2个角度入手排查: > > 1. k8s 的 services配置是否存在问题, 挂调一个节点的情况下, nacos-headless域名应该是可以访问的,应该路由到剩下2个节点,移除有问题的nacos-2节点。 > 2. 看下节点宕掉之后,拉起的速度是否正常,比如这个节点pod和进程拉起了,本地127.0.0.1可访问,但是另外2个节点不能访问,那么可能是k8s的coredns设置有问题,导致pod的host挂载很慢。 感谢解决啦,nacos-headless 访问有问题导致服务注册不到nacos,优化了网络