pytorch-relation-extraction
                                
                                 pytorch-relation-extraction copied to clipboard
                                
                                    pytorch-relation-extraction copied to clipboard
                            
                            
                            
                        distant supervised relation extraction models: PCNN MIL (Zeng 2015), PCNN+ATT(Lin 2016). 关系抽取
No such file or directory: './dataset/FilterNYT/w2v.npy' 你好,该文件已经存在了,但是仍然报错说不存在。请问这是什么问题,如果是路径的问题,我该在哪里修改这个部分代码(我一直没有找到有关该路径修改的代码)
module 'torch._C' has no attribute '_cuda_setDevice' 你好 出现这种情况该怎么解决呀?
博主您好,在test的时候,我们遍历所有的relation进行attention。 ` res = torch.cat(pre_y, 1).max(1)[0]` 假设使用label 0 ([690*1])这个relation来作attention,将attention后的结果用于计算各个关系的概率分布。 ` out = self.test_scale_p * bags_feature.mm(self.rel_embs.t()) + self.rel_bias` ([128,53]) 这里的max是指在第2维度取最大值作为label 0这个relation的概率吗?依次类推遍历所有relation,就能得到在所有relation上的概率。 这里可不可以不作max,直接取out中label 0对应的维度所对应的概率作为结果。 还有一个问题,PCNN-ATT中eval_metric_var,这是直接对预测概率排名前2000的计算pr吗?
关于mask计算的问题
你好,请问一下mask = [1] * (epos[0] + 1)这儿为什么要+1呢。我看输出数据的时候,entity的index在24,但是mask为1的却有 25个。 
你好,为什么执行代码中的c++代码后,生成的bags_train.txt文件全是NA关系? 
您好 pcnn_one的predict中 pos_flag和 tmp_NA_prob的意义没理解,那块的逻辑没弄懂,可以讲一下吗?谢谢
请问博主,在每个epoch结束时,调用predict函数中的out=model(data),是不是需要用with torch.no_grad()包起来呢? 还有一个问题,在训练的时候,我们知道label是多少,因此可以在调用select_instance时只取label对应的那一列概率最大的instance作为下面的训练样本,但是在predict时,我们并没有经过select_instance这一步,而是直接取概率最大的那一列作为label。换句话说,select_instance时,model是不是应该停止梯度更新呢?select_instance学到的是从包中选择正确的样例进行训练,但是predict时并没有这一步。还是说我们在predict中也加入select_instance,但这样好像又不是多实例学习的只要预测对包中的一个?其实自己纠结的就是train过程中比predict多出的一个select_instance. 第二个问题可能没表达清楚,博主可以回答一下第一个问题嘛?谢谢!
你好,看了你的代码中用mask做fast piece-wise pooling的部分,不是很懂,能不能简单解释一下?或者给出相关的参考资料,非常感谢!!!
你好经过 extract 处理过的数据集,最终生成的文件中 第一行是 4 项,前两个是实体id , 后两个是什么?“NA 542694” 之类的。 能否对生成的数据做一个详细的说明
你好~ 在数据预处理时,如果句子过短的话需要在句尾填充0,那在将填充的部分转换为word embedding的时候是直接找0的那个embedding吗?如果是这样的话不会导致学习到错误的特征吗?