roberta_zh
roberta_zh copied to clipboard
其中依赖的预训练模型是否和bert官方提供是一样的?
请问其中依赖的预训练模型是否和bert官方提供是一样的?如果我用其他外语是否可以直接从bert官网中下载相关多语言模型