Mr_Liu
Mr_Liu
> I fixed my problem by modifying the tokenizer. The tokenizer UDA used is not consistent with BERT pretrain model for Chinese. > Before: > > ``` > def tokenize_to_wordpiece(self,...
> 能提供代码吗?邮箱地址[[email protected]](mailto:[email protected]) Have you received the code?
> > 老哥, 数据集也可以发一下数据集给我吗?谢谢~ [[email protected]](mailto:[email protected]) > > 发了 能麻烦发一下数据集么,谢谢,[email protected]
> 你好,经过和相关比赛方交流,本次比赛暂不安排大型的比赛网站评测,在8月1日公布测试集之后,会基于腾讯文档更新一个leaderboard,每周更新一次,其地址会更新在Github页面上。感谢你的关注!。 你好,测试集已经公布,排行榜请问还没公布么