bert_seq2seq
bert_seq2seq copied to clipboard
模型加载输出问题
首先,非常感谢大佬能开源这么优秀的工具。 我是个小白,在训练完模型以后,使用test目录下的auto_title_test.py,test_data没有变,为什么输出是17,8,10三个数字?大佬能教下怎么用吗?
训练的时候如果没问题,感觉不应该阿,test代码改过么。
没有改过,可能是我哪里设置错了,我现在用的chinese_wwm_ext_pytorch,三个例子没变,输出是以下这样: 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法
你必须先训练呀 test是测试文件 你训练好了模型 在里面测试 你现在用的是预训练模型吧 不能做自动提取标题。
多谢大佬提醒。 我现在要做英文的摘要提取,使用roberta_auto_title_train.py,模型是从Hugging Face上下载的roberta-base,在self.bert_model.load_pretrain_params(model_path) 这一步报错,UnpicklingError: invalid load key, 'v'.。这个能给看下原因吗?麻烦大佬了
确定下载的模型没错么,可以进群@我也行 给点报错截图什么的。