CasRel-pytorch-reimplement icon indicating copy to clipboard operation
CasRel-pytorch-reimplement copied to clipboard

Pytorch reimplement of the paper "A Novel Cascade Binary Tagging Framework for Relational Triple Extraction" ACL2020. The original code is written in keras.

Results 23 CasRel-pytorch-reimplement issues
Sort by recently updated
recently updated
newest added

请问有人在NYT数据集上进行测试了吗,结果大概是多少呢?

您好,代码写的很漂亮,感谢分享~ 不过这里有个疑问,在实体start/end双指针预测时,casRel貌似没考虑实体类型,如果是多实体类型的情况下,您这边一般采用何种方案解决?是使用MRC+prompt方式还是有更合适的方式?

您好 推理部分有误 tokennizer之后的token如果有英文之类的会造成错位,所以最后索引的时候要有一个原始text到token的mapping来定位,不能直接通过指针位置对应的tokenlist来还原原始的spo

想请教您两个问题: 1. 模型中的BERT参与到反向传播了么?还是说只当成Embedding用了呢? 2. BERT的输入需要在句子头尾加入[cls]和[spe],如果我在BERT后面接入一个LSTM而不是Linear,那是不是要在BERT的输出中截断这两个位置的向量呢?

为什么不把样本中所有sub拿出来用呢?这样训练数据能大很多

我看源代码和您的代码,感觉测试时都是只能逐条测试,不能批量测试,是这样的吗

It seems that the performance isn’t as good as expected when I apply the model to other Chinese Datasets. I wonder whether it is due to the model itself or...

casrel.py 中 sub = (sub_head + sub_tail) / 2,是不是只计算了subject头和尾词的均值,原论文使用的是对整个span计算均值,按照您的代码,如果subject超过两个词,是不是会出现一些误差

您好,我看您选择的keras_bert的tokenizer,但是我发现分词之后会有在分好的词前面有##,这样会产生些许差异导致在tokens里找不到sub的token组成的列表,进而无法标记。您是怎么处理的呢