longlongman

Results 16 comments of longlongman

我是基于BERT的,所以我用的是BERT的分词器

I use the tokenizer provided by keras_bert.

因为你可以用多卡训练,多卡训练的情况下model是多卡,因为我不想保存多卡的模型,所以保存的是ori_model,两者在单卡训练时是一致的,多卡模型的保存与加载可以参考https://my.oschina.net/u/4279077/blog/3366893

你可以尝试把这些##去掉,我当时是为了和原始代码结果保持一致所以保留了,不过我记得保留和去掉结果相差不大

CMED是个比赛,测试集没有标签很正常,我的结果是提交给官方他们算的。

不好意思已经忘记了

Sorry to hear about that, as you can see, I use the code on a Chinese Dataset(CMED) and achieve better results compared with the Keras version. I did not test...

确实不能用在实际场景,肯定是需要根据实际场景做调整的