Jingye Li

Results 26 comments of Jingye Li

1.交叉熵与负对数似然+log_softmax等价 2.得到词对关系分类矩阵后与词对关系标签矩阵一同计算交叉熵即可 3.torch.argmax返回分数最高的词对类别index,通过index即可找到对应的词对类别

这个list表示每个标签的F1值,分别是None、NNW和THW-*,因此共有实体类别数+2个F1值

1. 具体顺序可以看`data_loader.py`中`Vocabulary`类中的`label2id`。 2. 你的理解是正确的。 3. 没有特别针对长实体数据集进行试验,但Resume数据集中有不少较长的实体,效果似乎还不错,不过不同数据集上的效果还是需要根据实验来确定。

训练、验证和测试集共享一个vocabulary,label_id是从0开始的,因此将label按照id从小到大输出的label顺序就是Label F1 列表中对应的顺序。

他们是沿用训练集的label2id

这个不太清楚原因,我自己跑是可以的。你可以先试试其他数据集看看能否跑通,排除一下数据的问题,然后检查模型输出的logits以及一些mask的操作是否正常。

模型在训练不充分时,预测结果在最坏情况下可能会把所有可能的实体都解码一遍,此时可能存在OOM的情况。可以观察一下解码前模型的预测结果是不是出现了这样的情况,然后可以尝试多训练几个epoch后再解码,或者尝试在解码时循环大于一定次数后直接break。

比较小的数据集用常规配置可能会出现欠拟合的情况,可以尝试减少lstm和cnn的参数,也可以尝试去掉scheduler或者增大学习率等操作