Hongwei Wang

Results 57 comments of Hongwei Wang

Hi guys! I suggest decreasing the learning rate.

1. The inner product works according to the experiments. We can hardly say which one is always the better. 2. The code here has been refactored and simplified considering the...

I'm sorry but I can't provide the complete dataset for the time being due to the privacy policy of Microsoft.

您好,第一列是head id,包括的item不只是电影。超过电影数目的电影ID是因为,我们不止抓取了item中匹配到的电影的信息,也做了多跳的扩展,所以在它们的多跳邻居中可能有其它电影,这些电影的信息也被存储了起来。谢谢!

因为在知识图谱中只能匹配到这么多电影。重新标号是把两边的ID给对应上。是的。

您好,一跳的三元组是这样的,二跳的不好说,但是数据集中应该没有头尾都是电影的三元组。

您好,没有太明白您的问题,知识图谱是这样构建的,以seed nodes(就是item nodes)为核心,按照一个给定的关系集合来向外扩展知识图谱。也就是说,扩展的时候只考虑预先给定的那些关系,这样来控制知识图谱的大小。至于后续加入的节点是不是在seed nodes中,并没有限制。

你好! 1. 代码和论文里的loss不完全一样,论文里的loss是想让hRt的值和真实值R接近,也就是当(h, r, t)为真时,hRt要接近1,否则接近0。代码里的loss是当(h, r, t)为真时,让hRt尽量大,而对(h, r, t)为假时没有要求(也就是没有负采样)。没有负采样是为了实现上的方便;正样本上的loss,两者没有本质区别,都是想提高hRt的值; 2. kge_weight就是\lambda_2/2。

Hi! Entity linking was not done by us but contained in the original dataset. The "kg.txt" is already disambiguated.