ljx

Results 6 issues of ljx

Does this support beam search?

https://github.com/juntaoy/biaffine-ner/blob/7a3e32b0b864f08e82ab37188177cfe199400b51/util.py#L134 你好,请教一下这里为什么使用全0进行初始化?

您好,我在自己的数据集上(大概15w训练句子,都是非嵌套实体),比较了以下两个模型: (1)BERT+双仿射NER:双仿射NER部分用的是您提供的代码 (2)BERT+CRF:即BERT后面接一个全连接和CRF层 前处理和BERT都是同样的设置,在测试集(约5k句子)上biaffine-ner比BERT-CRF效果低了1.7%,P和R值都降低了,尤其是R值,降低了2.5%,我怀疑是没有加负采样,训练时正负比悬殊,导致召回率偏低。所以想请教一下,您在训练双仿射模型时,是否加了负采样操作?是否有比较过加不加负采样的效果变化? 另外,我注意到EMNLP2020有篇论文"Let’s Stop Incorrect Comparisons in End-to-end Relation Extraction!",这篇论文也里比较了Span-based NER(加了负采样)和BERT-Softmax在非嵌套NER上的效果,结论也是BERT-Softmax在CoNLL04和ACE05数据集上效果均好于Span-based模型,不过论文里并没有详细分析,想请教一下您是否有注意到这个现象,是什么原因导致的? 期待您的回复

请问论文中为什么没有和FLAT进行对比?

您好,请问哪里可以下载到CCL2018的文本蕴含数据集呢?

https://github.com/tdozat/Parser-v3/blob/327cbcf4c3900f2057b4d059bc5674ed746ce5e0/parser/neural/classifiers.py#L214 Hi, why use `tf.zeros_initializer` here?