jokerCoCo

Results 6 comments of jokerCoCo

> 去重是用dedup(),比如 // 从各个年龄的人中选出一个代表 `g.V().hasLabel('person').dedup().by('age')` > > 多个属性分组: 《图数据库实战》中写到:group()是根据指定的by()调节器对结果进行分组,使用一个或者两个by()调节器对数据进行分组。第一个by()调节器指定分组的键,第二个by() 调节器如果存在,将指定值;如果不存在,则将传入数据收集为与分组键相关联的值列表。 直观上的感觉似乎不支持?试了Group().by("A","B")也是报错,我尝试多种gremlin ,也是没找到根据多个属性进行分组的方式(后续我在找找,有好消息同步) 感谢你的反馈。我在尝试连续使用两个group by,如下述语法 g.V().hasLabel('person').group('profession').by('profession').group('city').by('city').cap('profession', 'city'); 但是这样也只是分别根据profession、city进行了分组,而不是同时根据这两个属性分组,后续有发现我也会同步我这里的进展。

> 按照多个属性分组可以尝试如下语句: `g.V().hasLabel('person').group().by(values('profession', 'city'))` 谢谢反馈。这个语句我试了一下还是不行,我在hubble可视化页面进行查询,查询结果会根据values的第一个属性进行分组,后续的属性没有发挥作用。

> g.V().hasLabel('person').group().by(values('profession', 'city').unfold()) 谢谢您的回复。我试了一下还是不行,分组还是只按照第一个属性进行分组,如这个语句只会按照profession进行分组,city并没有起到作用。

> 我这边简单的构造了一个示例数据,尝试了一下如下语句是可行的: > > ```java > g.V().hasLabel('node').group().by{it.values('city', 'profession').toList()}.by(id) > ``` > > 示例数据: > > ```java > schema=graph.schema(); > schema.propertyKey('profession').asText().ifNotExist().create(); > schema.propertyKey('city').asText().ifNotExist().create(); > schema.vertexLabel('node')properties('profession','city').useCustomizeNumberId().create(); > schema.edgeLabel('child').sourceLabel('node').targetLabel('node').create(); > > g.addV('node').property(id, 1).property('profession',...

> 现在的默认发布版本应该是多副本形式把,为什么会存在分步不均的情况,你可以多(编辑)一些配置信息和时间。 > > 第二个不同计算能力正在做的内部是核心核心,多个请求的api是自动被分割到多个台请求的节点的,比较大的一个请求和测试。 嗯嗯。下面是我配置文件的相关信息,是1主2从的形式,后端采用rockdb做存储 rest-server.properties的配置 ``` rpc.server_host=host1 rpc.remote_url=host1,host2,host3 server.id=server-1 server.role=master` `rpc.server_host=host2 rpc.remote_url=host1,host2,host3 server.id=server-2 server.role=worker` `rpc.server_host=host3 rpc.remote_url=host1,host2,host3 server.id=server-3 server.role=worker ``` 上述配置也是我从其他问题中了解到的,host都是我服务器的ip地址 hugegraph.properties配置 对于raft参数配置我主要改了raft.mode、raft.safe_read、raft.endpoint、raft.group_peers这几个参数,其他都是默认配置 master配置 ``` # gremlin entrance to...

目前还是没有进展,不知道是否有时间可以帮忙看下分组后去重gremlin如何实现?