xhw205

Results 6 comments of xhw205

我测了下 我120G内存,会爆掉

您好,这些warning忽略就行。 BertForSequenceClassification 针对的是 NSP 任务的,RoBerta 系列未使用NSP。实在看得难受,logging warning 应该能消除

可以,在线测试,该方法F1效果为60.5%,见 https://tianchi.aliyun.com/dataset/dataDetail?dataId=95414 ,baiyyy是我的提交结果

> 我用的百度的LAC命名实体识别过滤的,效果还可以 MACBERT这直接给纠错了,怎么防止误纠?

您好,我也复现了该算法https://github.com/xhw205/GPLinker_torch, 训练过程中一样出现loss为负数,但测试时输出结果一切正常,F1分数也可观。不知这是什么原因呢

是的,我提问的。我代码复现基本按照keras版本来的,以这个CBLUE数据为例子, {"subject_type": "流行病学", "predicate": "同义词", "object_type": "流行病学"} {"subject_type": "疾病", "predicate": "同义词", "object_type": "疾病"}, 相同的关系对应不同的实体对,这种也需要去重吗? 而且经过我的测试,LOSS出现负值也没有影响模型效果,和我之前复现的casrel上线F1分数基本一致,都有效