monokoo
monokoo
好想法,+1,另外现在版本如果种子数量多达几百的时候经常卡死进程,无响应。感觉效率需要提升,目前效率太低
> @monokoo, art+qb “种子数量多达几百的时候经常卡死进程,无响应”新版本已经被修复了 多谢提醒,我更新尝试下。感谢作者及时的修复
> algorithm algorithm 使用的默认 by-ingested-data  > 2024-03-05 12:58:08.912 [INFO]ESC[0m [service.rebalance] traffic.go:539 agent(cn-hangzhou.10.183.35.14-V28) register counter: {"Weight":0.93,"IsAnalyzerChanged":0,"Name":"cn-hangzhou.10.183.35.14-V28"} 2024-03-05 12:58:08.912 [INFO]ESC[0m [service.rebalance] traffic.go:539 agent(cn-hangzhou.10.183.33.213-V32) register counter: {"Weight":1.19,"IsAnalyzerChanged":0,"Name":"cn-hangzhou.10.183.33.213-V32"} 2024-03-05 12:58:08.912 [INFO]ESC[0m [service.rebalance] traffic.go:539...
> 我看 12:58 的日志 10.183.35.92 (早上重启的 server)上分配了采集器,看起来每个数据节点的采集器权重都接近 1,是比较均衡的,现在是恢复了吗? > > 可以看下早上重启时,到其他 server 崩溃区间的 traffic.go 日志 这个均衡动作看日志很少触发。deepflow-ctl agent rebalance 这个命令也无法手动均衡,执行后server端没动静
> > > 我看 12:58 的日志 10.183.35.92 (早上重启的 server)上分配了采集器,看起来每个数据节点的采集器权重都接近 1,是比较均衡的,现在是恢复了吗? > > > 可以看下早上重启时,到其他 server 崩溃区间的 traffic.go 日志 > > > > > > 这个均衡动作看日志很少触发。deepflow-ctl agent rebalance 这个命令也无法手动均衡,执行后server端没动静 > >...
> 此处日志有问题,忘记做 err 判断了,欢迎提 PR > > 上面的日志打印说明已经执行完均衡了,这个时间点之后数据节点流量还是不均衡吗 是有这种情况,如下  
https://github.com/deepflowio/deepflow/issues/5738 这个缺陷修复后,目前负载均衡也运行正常了
@roryye server新增了一个节点,没有正常按照日志显示的预期分配负载  
我也遇到了同样的问题,注视掉默认iptables里面的 -A INPUT -j REJECT --reject-with icmp-host-prohibited -A FORWARD -j REJECT --reject-with icmp-host-prohibited