bert_seq2seq icon indicating copy to clipboard operation
bert_seq2seq copied to clipboard

simbert_model.py文件中的117行

Open singaln opened this issue 3 years ago • 5 comments

您好,在simbert_model.py文件中117行的self.decoder()是哪里来的呢??

singaln avatar Dec 07 '21 11:12 singaln

抱歉,前段时间更新了框架,这块忘记改了,还没测试到,我马上修改一下提交下,多谢指出~

920232796 avatar Dec 07 '21 12:12 920232796

提交了,你看看,等有空我再去测试下。

920232796 avatar Dec 07 '21 12:12 920232796

simbert的生成相似句测试可以写下吗,参考苏神的,我遇到问题了,卡住了,十分感谢

berrybobo avatar Dec 14 '21 08:12 berrybobo

simbert的生成相似句测试可以写下吗,参考苏神的,我遇到问题了,卡住了,十分感谢

print(self.bert_model.sample_generate(text, out_max_length=40, top_k=30, top_p=0.7, repetition_penalty=1.5, temperature=1.5, sample_num=8)) 生成的句子有呀,哪里卡住了?

920232796 avatar Dec 14 '21 08:12 920232796

simbert的生成相似句测试可以写下吗,参考苏神的,我遇到问题了,卡住了,十分感谢

print(self.bert_model.sample_generate(text, out_max_length=40, top_k=30, top_p=0.7, repetition_penalty=1.5, temperature=1.5, sample_num=8)) 生成的句子有呀,哪里卡住了?

我刚才没看到,我仿着苏神写的,就是用transformer库输入和苏神的不一样,您这里好像是没有用transformer的封装,自己写的,我的问题是在生成时随机采样后原输入与输出concat后不知道该传入bert了,我感觉自己定义bert估计就行了,或者我用下您的方法试下,谢啦

berrybobo avatar Dec 14 '21 09:12 berrybobo