pytorch-relation-extraction icon indicating copy to clipboard operation
pytorch-relation-extraction copied to clipboard

distant supervised relation extraction models: PCNN MIL (Zeng 2015), PCNN+ATT(Lin 2016). 关系抽取

Results 37 pytorch-relation-extraction issues
Sort by recently updated
recently updated
newest added

您好,看了Lin2016和Zeng2015论文的代码后,对于ONE模型如何测试和AUC曲线如何去画有两个疑问,希望您能帮忙解答。 1、从两篇论文的代码及您的代码中,可以看到ONE模型测试时如何选取测试结果是不同的,OpenNRE中把每个bag的的logits(n*class_num,n是这个包中句子数)从列方向取最大值,而Zeng2015的代码中,是按多实例学习的方法从bag中挑出一个句子。您对这两种方法有什么看法?我个人偏向于第二种,从MIL的理解角度更能接受。 2、关于AUC曲线,您代码中也有体现差异,Lin2016和Zeng2015的画法到底应该哪个是正确的?总不能在同一张图中比较两种画法下的AUC曲线吧?我想听听您的建议,如果有在关系抽取方面比较 详细地提及AUC画法的论文,也希望您能推荐给我。 谢谢!

OpenNRE中的代码中mask矩阵的第一行为[0, 0, 0],但是在你的代码中是[0, 0, 1],我觉得可能是你写错了?

作者您好,想和您探讨下2015年的那篇PCNN论文的损失函数问题,看您在博客中的描述和原论文中的描述,我对bag级别的损失函数理解如下:①对于某个bag,假设label为1,则在该bag所有的instances中选择label为1 预测 概率最大的那个instances 代表该bag。②针对上面选择的logits,对T个bag计算交叉熵。 然后16年刘知远他们的改进就是在这个选择的部分引入了 attention 分数。 这样对吗?谢谢您

你好,因为你的数据是允许bag最多有4个标签的,那么在main_mil.py里面,因为要选择在标签列上最大的那一行作为这个bag的表示,多标签的bag的话要选择哪个标签呢?(即select_instance函数,我看了下,你好像是直接选择第一个标签的?)谢谢!

您好。nyt.py代码中,ldists和rdists代表什么含义呢

您好,nyy.py中get_pad_sen_pos方法的作用是什么呢?感觉处理来处理去的不知道意图是什么?

我想询问一下,作者您使用的是词嵌入还是字嵌入?

你好,想问下你处理的数据中test data的bag中positive的有多少个?我处理的是1762个,但是有别的paper报告是1950个,想知道test的positive bag到底有多少个?谢谢!

loading train data loading finish loading test data loading finish 2018-11-15 17:55:06 train data: 65726; test data: 93574 2018-11-15 17:55:06 Epoch 1/100: train loss: 0; 2018-11-15 17:55:06 Epoch 2/100: train...

question

楼主,我直接跑readme里面的示例,发现precision和recall都只有0.5左右,请问是什么原因?