Davies Liu
Davies Liu
@bitboxclub 失败 的文件已经有 日志的,默认是标准错误,你重定向一下就行了。
2013/10/30 Alex.F [email protected] > 代码里面好像默认直接写死了用16个bucket,bucket的分布是根据key的hash来确定,有办法手动指定bucket分布不? > > beanseye 里面硬编码了 16 个 bucket, 是指以数据的 1/16 > 为单位进行分配,如果N=2,就最多允许有32个节点,每个节点有1/16的数据。 > > 如果现在有4台beansdb,N=2, > W=3。然后其中一台机器挂掉了(这台机器数据全部丢失),如何能恢复这台机器?我知道应该是可以通过其他的机器恢复数据,不知道有没有现成的方法,还是直接把其他所有的数据都同步一份过来? > > beanseye 默认会自动发现各个节点的数据分布来实现路由,不需要手动分配。 当需要手动对数据分配进行管理时,只需要用rsync 来拷贝若干个子目录(1/16的数据)到新的节点, 具体的做法可以是这样(迁移 A 节点上的...
没有,仍然是需要的。 On Oct 31, 2013 1:28 AM, "Alex.F" [email protected] wrote: > 如果使用 beanseye ,就不需要定期使用 sync.py 对数据进行同步了,beanseye 自动做了这个步骤? > > — > Reply to this email directly or view it on...
最好设定定时任务,每分钟运行。如果数据没有差异,它会很快退出。
2013/10/31 Alex.F [email protected] > 数据在存储的时候,会根据key算出存储到哪个bucket,然后查询该bucket存储的服务器(beanseye里面好像是默认每个bucket会存储到每台beansdb服务器上面),然后根据负载什么的算出实际需要存储的N个服务器,并写入。 > > 当N小于服务器数目的时候,实际上只有N台服务器会写入同一份数据,其他服务器是没有这些数据。也就是有4个服务器,N=2情况下,1 2写入A数据,1 3 > 写入B数据, 1 4写入C数据, 2 3写入 D数据, 2 4 写入 E数据, 3 4写入 F数据,那sync.py 该怎么运行? > > 目前 sync.py 里面没有实现自动发现数据分布的逻辑,需要手动把实际数据分布写入到...
How to reproduce this issue? How many files in this volume?
Fixed by https://github.com/juicedata/juicefs/pull/2630 ?
This log tells that JuiceFS does NOT implement POLL yet, it's OK, maybe we can hide this one.
Can you add `-q` to ignore these warning?
Could you send a proposal or draft design on how to implement dedup and what's the API needed?