ZuoZicheng
ZuoZicheng
How long did you spend in training the model ?
I have trained this model for 30 hours , maybe you need to use more GPU resource
> Thanks for the interest. Can you elaborate a bit more what you mean by "the & operator"? Maybe you have misunderstood what I mean . For example: >>>a =...
> Each reasoning step corresponds to a fuzzy set of entities, and the number of entities/nodes on a KG can be enormous, so we really want to avoid finding all...
That is to say how to generate ' FB2M.name.txt ' ?
> attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因? 您好,我把注意力机制加上之后发现:对于谓词学习部分的准确率由0.816下降到0.815,实体学习部分由0.642提高到了0.644,测试集上准确率依然是0.75
> 你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗 这个结果你是在FB2M数据集上跑的还是FB5M?
可以,加我QQ就好 ------------------ 原始邮件 ------------------ 发件人: "Wenjing ***@***.***>; 发送时间: 2022年4月20日(星期三) 晚上11:50 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [xhuang31/KEQA_WSDM19] train_entity.py 头实体表示学习模型训练精度只有63 (#11) 菜鸟诚心发问555,请问一下要怎么替换成自己的数据集呢? 我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的 您好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话 — Reply to this email directly, view it...
https://github.com/wangpengnorman/FVQA 感觉应该是这个数据集,不过格式需要改一改
> 您好,我是指您们构建的图能够开源一下吗?因为在我运行代码的时候似乎没找到这部分数据,所以没有办法跑起来。 > […](#) > ------------------ 原始邮件 ------------------ 发件人: "jlian2/mucko" ***@***.***>; 发送时间: 2022年3月23日(星期三) 中午11:09 ***@***.***>; ***@***.******@***.***>; 主题: Re: [jlian2/mucko] 你好,请问数据会开源吗? (Issue #2) https://github.com/wangpengnorman/FVQA 感觉应该是这个数据集,不过格式需要改一改 — Reply to this email directly, view it on GitHub,...