codis icon indicating copy to clipboard operation
codis copied to clipboard

Proxy based Redis cluster solution supporting pipeline and scaling dynamically

Results 115 codis issues
Sort by recently updated
recently updated
newest added

想要修改默认的1024 个slots 目前是修改pkg/models/slots.go 文件下const MaxSlotNum 之后重新编译 发现dashboard页面基本没变,offline 的地方有点变化 实际set key 的时候 还是会出现ERR handle request, slot is not ready, may be offline,感觉算法还是1024 取余没有变啊 请问其他还有哪里需要做修改吗?

etcd is broken here, use codis from pika https://github.com/OpenAtomFoundation/pika

Hello, thank you for your app. Is there a way to make Codis work with DragonflyDB (https://github.com/dragonflydb/dragonfly)? I catch an error: ERR unknown command SLOTSINFO

在使用codis-ha时出现如下问题,不知是否正常。 **场景如下**: 启用codis-ha后,当一个组内的master节点down掉后,codis-ha会选举group内的一个slave节点作为master节点。**但随即会剔除group内除新提升为master的节点以外,其他所有节点都会被强制剔除且服务器上确认codis-server进程退出。** 当手动启动被剔除的节点后,再次添加到该group依然无法添加(添加后会被自动剔除且进程自动退出)。 **此外,想要了解一些问题**: 1. 想要了解codis-ha的实现机制,是基于redis-sentinel实现的吗? 2. codis-ha在使用时,需要另外以sentinel的模式运行redis吗? 3. codis-ha的主从切换是怎样的? 4. 后续的数据同步的流程(当原master重启上线再加入到group中时)是怎样的呢? **望解答,谢谢。** ---- #### 相关信息如下 **group组实例** ![snipaste_20180319_163447.jpg](https://i.loli.net/2018/03/19/5aaf76c082303.jpg) 6181为master,6282为slave。 **Codis-server日志信息** 6381 > 8541:signal-handler (1521448920) Received SIGTERM scheduling shutdown... 8541:M...

codis3.2.2的zookeeper被别人意外删除了,无法恢复的情况下,dashboard也运行不起来,proxy和server都在正常运行的情况下,怎么补救恢复slots分组同步到新的zookeeper上面?还有救?

背景:使用redis-migrate-tool向codis+pika的架构同步数据,同步模式为全量+增量,源端为redis cluster 4.0,目标端为coids-proxy地址,目前可以正常同步,但是到增量阶段大概8小时左右,就会出现session close的错误,导致同步进程Crash,redis-migrate-tool日志没有任何报错,在codis proxy日志只可以看到: ``` 2023/05/25 15:51:16 session.go:83: [INFO] session [0xc012833600] create: {"ops":0,"create":1685001076,"remote":"192.168.3.26:39470"} 2023/05/25 22:53:10 session.go:90: [INFO] session [0xc012833600] closed: {"ops":136162772,"create":1685001076,"lastop":1685026390,"remote":"192.168.3.26:39470"}, error: EOF ``` codis配置文件为: ``` "config": { "proto_type":...

愿意帮助维护 https://github.com/cloudxaas/codis 吗? We can make it from 1024 to 16384 and 65535 settings

proxy 处理请求的过程中经常需要分配 `proxy.Request` 和 `redis.Resp` 两种对象。这个 PR 通过 `sync.Pool` 进行了复用,应当可以降低GC压力。 `proxy.Request` and `redis.Resp` is allocated most often in request processing. This PR try to reuse these objects using `sync.Pool` which...

proxy启动命令:nohup bin/codis-proxy --ncpu=16 --config=conf/proxy.toml --log=log/proxy.log --log-level=WARN & 1、发现proxy最多占用4个核,其他的核都空闲。 2、单机启动两个proxy进程 nohup bin/codis-proxy --ncpu=4--config=conf/proxy.toml --log=log/proxy.log --log-level=WARN & nohup bin/codis-proxy --ncpu=4--config=conf/proxy-2.toml --log=log/proxy-2.log --log-level=WARN & 每个proxy最多占用2核,一共也是4核。 这是什么问题啊? ![image](https://user-images.githubusercontent.com/16409957/43895787-0ed8fe94-9c09-11e8-9cdd-1cc4de1960d9.png) ![image](https://user-images.githubusercontent.com/16409957/43895824-26abb872-9c09-11e8-8a51-f91bb1b2908e.png)