lixusign

Results 21 comments of lixusign

由于采样故障,导致的tensorflow-op内部拼接了大量的 default_value 是一个可能原因。

你好,https://cs.stanford.edu/people/jure/pubs/node2vec-kdd16.pdf 原始论文中, 权重指的是边的权重,而不是当前节点neighbor的权重,我认为这里实现的有误。 实现在,GetSortedFullNeighbor里的neighbors_weight_在graphBuilder构建的时候读的是neighbor的顶点权重而不是边的权重,这里是否实现有误? 虽然可以trick一下不需要改代码,把邻居点的权重设置成边的权重,但是这样不太好。 同样如果lshne 也修改了p q超参数的话,也会走这个逻辑,导致出错。

我的意思是,用于控制结构性和同质性的P、Q参数 在条件下需要和节点之间的边的权重相乘作为游走的概率依据。而euler的实现是P、Q参数在条件下和”以自身节点看待neighbor权重“的信息做了相乘作为游走概率依据,和原始论文不一致。

{ "node_id": "顶点编号,int", "node_type": "顶点类型,int", "node_weight": "顶点权重,float", "neighbor": {"边类型": {"邻居id": "权重", "...": "..."}, "...": "..."}, "uint64_feature": {"属性编号": ["int", "..."], "...": "..."}, "float_feature": {"属性编号": ["float", "..."], "...": "..."}, "binary_feature": {"属性编号": "string",...

请问 而且为啥sage上提供 unsupervised , 而 xxgcn 不再提供了unsupervised。 原因是原理上 纯归纳学习不混合emb在非监督学习上效果烂?

比较困惑作者 提供算法的时候是咋考虑的,肯定有自己的考量

ps_strategy=tf.contrib.training.GreedyLoadBalancingStrategy()

请问 "两个网络分别学习不同场景下的encoder" 怎么理解? 我看导出emb的时候,是走的src的网络,可以走pos&negs的网络吗? 具体出来的emb 直观上两个网络有啥感受上的区别,比如近邻关系的区别? 其实这里面有个问题: 比如我图规模比较大,我做反向传播的时候,用hashembedding加速lookup的过程,这样在反向传播的过程中hash的key还没有,需要实时insert 这样就学习不到那些。所以效果可能不好。 2个网络稠密的variable存储规模大了一倍。