K-BERT icon indicating copy to clipboard operation
K-BERT copied to clipboard

Source code of K-BERT (AAAI2020)

Results 59 K-BERT issues
Sort by recently updated
recently updated
newest added

你好,想请问一下我发现你的 NER 在计算 F1 的时候似乎只有考虑 token 的位置正确性( [line 332](https://github.com/autoliuweijie/K-BERT/blob/master/run_kbert_ner.py#L332)) 但没有判断 entity 的分类正确性。我的理解是正确吗? ` for entity in pred_entities_pos: if entity not in gold_entities_pos: continue else: correct += 1 `

I have run the run_kbert_ner.py script with the Medicine_NER data. I have obtained the fine-tuned model. However, I was wondering to do the inference to obtain the prediction. I have...

请问你们在预训练K-bert的时候用了什么设备呢?预训练K-bert需要多大的显存?你们训练了多久呢?

请问提供K-Bbert的预训练模型嘛

你好,我想请教一下CNDBpedia.spo这个三元组的制作方式?我使用您共享的文件里面的词语进行检索,会出现多个关系组,请问您是根据什么规则进行过滤的呢?还有就是使用CNDBpedia.spo的网站提供的API是否需要申请apiKey以获得大规模调用的功能?

同学您好,感谢分享您的工作,想请教一下指定了随机种子后(默认是seed=7),训练的结果(包括每一步的损失和ACC)还是有一定的随机性,这是为什么呢?

论文的图2中,可视矩阵是否有问题呀? 下文中对可视的情况进行了说明,在同一个分支为可视;否则不可视。 那么图2中,1为什么能看到4?4为什么能看到1?

您好 请问是否能公开您们在论文实验中所谓的our BERT呢? 谢谢 ![Inked擷取_LI](https://user-images.githubusercontent.com/32416416/80273692-25fbc800-8707-11ea-8198-0af29b12de49.jpg)

博主好: 看到你的文章有一些思考, 中文状态下, apple就是苹果, china就是中国, 而bert的输入是字符级别的,那么在做soft position的时候, 苹果和中国, 属于同一个索引还是分开索引, 分开索引的话visible matric应该怎么构建, 谢谢.

Since the knowledge graph is only for CNBopedia, how do you generalize this for another domain?