culida

Results 3 comments of culida

1、服务本身没有备份功能的话,我从os层面进行备份涉及到一个问题(假如我还原os的时候,os的ip已经变更过,是否会影响到集群(因为集群之前的master ip是旧节点ip)) 2、重启后health接口,看看两个集群的数据量是相同的,doc_num数量一致 3、查询数据是使用这个接口的:curl -XGET http://router_server/$db_name/$space_name/$id

> 通常我们这样做,新创建一个集群,在新集群建表,建表参数和老集群,partition数量和老集群一样。kill掉ps,将老集群各partition的数据拷贝到新集群,partition id要对得上。然后重启。 我这边的环境是单机版本。请问将老集群各partition的数据拷贝到新集群这个怎么理解?(是数据目录下的datas/文件夹直接复制过去吗?) > get失败是不是因为你的partition id没对应上。 我通过http://master:8817/_cluster/stats接口查询新旧两个节点的vearch,看到id是相同的: "partition_infos":[ { "pid":3, "doc_num":12505652, "size":23497021315, 奇怪的是,导入数据的节点(跟老节点一样都是单机版本,将老节点(未停止vearch)整个centos os备份出来后,还原到一台新机子上面)虽然不能查询数据,但是我使用这个接口:http://ps:9001/dbname/tablename/2 插入数据是正常的,并且新插入的数据可查询。 目前我这个vearch里面存在一千万的数据,是否存在这个问题:数据太大,迁移过去刚刚启动还没有初始化完成呢?继而导致查询失败

附上服务日志: [Master.DEBUG.log](https://github.com/vearch/vearch/files/8085031/Master.DEBUG.log) [gamma.log](https://github.com/vearch/vearch/files/8085033/gamma.log)