DKRL
DKRL copied to clipboard
Representation Learning of Knowledge Graphs with Entity Descriptions (AAAI'16)
你好若冰,我最近在运行你的训练代码,但是训练的几天都没有训练完一轮,请问下是什么原因导致的。为没有使用预训练词向量。
编译没问题,但是发生段错误
预训练词向量
若冰,你好。 我正在试图重现你在论文中的结果,预训练的词向量部分我使用的是glove的50维向量。 初步结果来看与你论文中数字相差较大,查看了下结果文件,发现有很多的预测结果出现-nan。 既然唯一的不同就是词向量的不同,我想请问下你在论文中的实验使用的预训练词向量是公开的还是自己训练的?如果是自己训练的话,那训练的语料是什么?谢谢!
Compilation gives me many warnings like: `warning: ignoring return value of` and execution throws an Memory access error. My commands: 1. `make` 2. `./Train_cnn_multi`
关于实验结果
> rel:/olympics/olympic_medal/medal_winners./olympics/olympic_medal_honor/medalist 6 > left:4896.17 0 4896.17 0 > right:5508.67 0 5502.67 0 > mid:900 0 900 0 > rel:/people/ethnicity/includes_groups 3 > left:7670.33 0 7670.33 0 > right:11104.3 0 11102.7...
Hi I am running your code with the settings provided in your DKRL paper. I am using pretrained TransE embeddings for FB15K dataset and providing pre-trained word vectors to the...
你好,若冰。请问您给的entity classification数据集里面为什么没有FB20K的entity type信息,只有FB15K。但是文章里面汇报了entity classification在FB20K上的结果。
读了您的论文很有启发,但在实验部分,您说到用TransE和CNN进行加权,具体是如何加权的?谢谢
实验结果的效果不好,觉着可能是数据集用错了