suxb201
suxb201
推荐 rewrite。skip 确实会打印大量日志,可以在代码中注释掉对应日志。
1. 对的,增量没有 skip 2. 每次都是全量
1. 不要求 2. 可行,是推荐用法
会有影响,会导致 shake 停止。
期间的 aof 是缓存在源端 Redis 中的,可以先了解下 Redis 的主从复制原理,shake 一样的。
standalone
1. 我感觉可以,你可以试试 2. 能开启的话开启最好,不能开启的话参考:https://github.com/tair-opensource/RedisShake/pull/594#issuecomment-1521082673
> @suxb201 您好,我还想咨询下,我这边源端是75节点的redis cluster集群,目标端是codis,同步工具部署机器是一台物理机,配置是56c 256g内存,如果我使用推荐的 `python3 cluster_helper.py ../redis-shake ../sync.toml` 命令启动进程,会开启56个线程并行去同步数据吗? 如果可以开启并发,可不可以使用参数限制,比如几个并发一起工作这种。 因为源端的redis 部署方式是单个物理机多实例,如果一起bgsave,恐怕要把机器磁盘直接拉死。 所以想咨询一下这个问题。 感谢。 会开启 75 个同步任务,确实有可能拉挂。可以手动起同步任务,这样能控制好起多少个。
日志发全些看看
@wangchao665739 日志文件中没有保留栈,不确定 EOF 是哪个函数抛出来的,请问你有终端的 log 吗?终端应该有报错时的栈。