jingmu123

Results 7 comments of jingmu123

Hello, we have uploaded the pre-training model, you can download it here: https://drive.google.com/drive/folders/1mZDCt8oH4v-jgXf8J291oTLr_7-Be_Gj

您好,这个数据是从WMT官网下载并清洗之后的数据,size是指用于训练的数据规模,和mBART论文中一致;由于google硬盘空间有限,当前还无法提供所处理后的wmt数据,后边可能会选择在其他云盘上传,您也可以下载后按readme的说明进行处理,谢谢

您好,谢谢您的关注,预训练模型已经更新。您可以从这里下载:https://drive.google.com/drive/folders/1mZDCt8oH4v-jgXf8J291oTLr_7-Be_Gj

您好,CeMAT是一个预训练模型,需要在特定的训练集上微调后才能用于翻译任务的推理;

> > 公开的训练集中没有相应的开发集,请问是直接从训练集中随机采样一部分作为开发集吗? > > 你好,dev集我们提供了,在readme里面有链接 您好,很抱歉没有详细说明这个问题,我这里咨询的是Fine-tuning 所使用的dev

> > 感谢公开!我们在复现en2gu结果时,发现与论文中的结果([email protected])有一些不同(尽管我们使用你们公开的checkpoints和测试集上,测的结果是2.58,可以看到仍然有轻微的不一致),请问这个语言对的测试有什么特殊的处理吗? > > Hello, 我们用的是tokenized BLEU 您好,我这里报的就是tokenized BLEU,其他方向的结果都是比较准确的。另外,想问一下为什么使用你们的模型,直接在官方测试集上测试(使用你们的BPE词典),部分结果也有较大差异呢?

> > > > 感谢公开!我们在复现en2gu结果时,发现与论文中的结果([email protected])有一些不同(尽管我们使用你们公开的checkpoints和测试集上,测的结果是2.58,可以看到仍然有轻微的不一致),请问这个语言对的测试有什么特殊的处理吗? > > > > > > > > > Hello, 我们用的是tokenized BLEU > > > > > > 您好,我这里报的就是tokenized BLEU,其他方向的结果都是比较准确的。另外,想问一下为什么使用你们的模型,直接在官方测试集上测试(使用你们的BPE词典),部分结果也有较大差异呢? > > 测试的时候使用[https://github.com/linzehui/mRASP/blob/master/user_dir/tasks/translation_w_langtok.py这个task了吗](https://github.com/linzehui/mRASP/blob/master/user_dir/tasks/translation_w_langtok.py%E8%BF%99%E4%B8%AAtask%E4%BA%86%E5%90%97) 您好,我使用如下脚本处理: fairseq-generate...