EddieChen324
EddieChen324
还有一个问题是在transformers上读取苏老师的模型,它的权重几乎都被重新初始化了导致每次的句向量结果都不一样。。。不知道您是怎么转换的所以transformers可以正常读取?
> 请使用本仓库的转换代码以及roformer模型,如果需要pooler的权重请确保BertModel里面的add pooler layer=True。 详细的你可以参考一下,readme里面一个Roformer-sim测试例子。然后有关config,参考https://huggingface.co/junnyu/roformer_chinese_sim_char_ft_small/blob/main/config.json 这里面。 您好 在用了您仓库的转换代码后已经可以正常读取了 谢谢您!
> 两者能正常下降,大概率应该就是没问题 您好 我把您关于similarity loss获得labels函数的最后一段的argmax给注释掉了 因为我看苏神的bert4keras这一块好像直接就把labels矩阵传过去了 请问您为什么要在那一块加argmax呀