ChiuHsin
ChiuHsin
I see, but when I load_google_bert model, the vocab_size = vocab_size - TextEncoder.BERT_SPECIAL_COUNT - TextEncoder.BERT_UNUSED_COUNT, but it doesn't match when w_id ==2 'weights[w_id][vocab_size + TextEncoder.EOS_OFFSET] = saved[3 + TextEncoder.BERT_UNUSED_COUNT] '...
> 多谢哈。前两天我自己也想到了一个办法,就是在训练的时候我保存了权重文件,并且把模型都做了持久化。后面我重构模型的时候,我`load_weights`时,把by_name这个参数调为了True。 您好,我最近也在做seq2seq,您说的这种方式我有使用,结果和直接训练完后接推断模型结果是不一样的,而且相差很远,您确定这么做是可行的吗?
@laughing429 就按照keras example的例子中的那样,根据推断前一个字更新states_value来预测下一个字,预测出来字的概率选取概率最大的那个。您说的从全局考虑是怎么考虑呢?