roberta_zh
roberta_zh copied to clipboard
Roberta_l24_zh_base 和RoBERTa-zh-Large,有什么区别吗,还有有keras调用的样例吗,谢谢大佬了
Roberta_l24_zh_base 和RoBERTa-zh-Large,有什么区别吗,还有有keras调用的样例吗,谢谢大佬了
base是24层,但是hidden size没有扩大; large的hidden size也相应的扩大了; keras调用例子: https://github.com/bojone/bert4keras
好的,感谢
base是24层,但是hidden size没有扩大; large的hidden size也相应的扩大了;
意思是加载Roberta_l24_zh_base需要修改bert_config_large.json中的hidden size为768?