Fengshenbang-LM icon indicating copy to clipboard operation
Fengshenbang-LM copied to clipboard

使用Rangdeng-Pegasus系列,提示文件not found /cognitive_comp/dongxiaoqun/software/jieba/tmp/tmpk8ungvhc

Open jiangliqin opened this issue 1 year ago • 10 comments

使用Randeng-Pegasus-523M-Summary-Chinese image

请问可以提供这份自定义jieba分词文件吗?

jiangliqin avatar Aug 01 '22 02:08 jiangliqin

参考这里的解决方案 https://github.com/IDEA-CCNL/Fengshenbang-LM/issues/78

ganzhiruyi avatar Aug 01 '22 02:08 ganzhiruyi

修改了jieba临时文件路径 但是结果并没有变化 image @ganzhiruyi 请抽空帮忙看看,谢谢~

jiangliqin avatar Aug 01 '22 02:08 jiangliqin

hi, @jiangliqin 你好,你tokenizer的使用代码能否贴详细一点,方便我帮你定位问题。目前看你的截图,jieba分词已经导入成功了。

dongxqm avatar Aug 01 '22 05:08 dongxqm

你好,完全是示例代码 @dongxqm `from transformers import PegasusForConditionalGeneration from tokenizers_pegasus import PegasusTokenizer

model = PegasusForConditionalGeneration.from_pretrained("IDEA-CCNL/Randeng-Pegasus-523M-Summary-Chinese") tokenizer = PegasusTokenizer.from_pretrained("IDEA-CCNL/Randeng-Pegasus-523M-Summary-Chinese")

text = "据微信公众号“界面”报道,4日上午10点左右,中国发改委反垄断调查小组突击查访奔驰上海办事处,调取数据材料,并对多名奔驰高管进行了约谈。截止昨日晚9点,包括北京梅赛德斯-奔驰销售服务有限公司东区总经理在内的多名管理人员仍留在上海办公室内" inputs = tokenizer(text, max_length=1024, return_tensors="pt")

summary_ids = model.generate(inputs["input_ids"]) tokenizer.batch_decode(summary_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]

jiangliqin avatar Aug 01 '22 06:08 jiangliqin

上面的“老鼠老鼠……”是模型的输出?还是输入?有什么其他报错吗?是切词不对吗?

dongxqm avatar Aug 01 '22 06:08 dongxqm

是输出,没有其他报错

jiangliqin avatar Aug 01 '22 06:08 jiangliqin

图片 我这边测试是没有问题的哈,建议再确认下model是否正常加载,tokenizer的切词是否正确,每一步都再打印出来看下

dongxqm avatar Aug 01 '22 06:08 dongxqm

Randeng-Pegasus-238M-Summary-Chinese模型就结果正常,Randeng-Pegasus-523M-Summary-Chinese还是结果不对

jiangliqin avatar Aug 01 '22 11:08 jiangliqin

图片 我这边无法复现你说的问题,推测是没有正确的加载模型。 清理一下hugging face的缓存试试,或者指定一个新的模型缓存地址再试试?如以下代码所示

model = PegasusForConditionalGeneration.from_pretrained(
        "IDEA-CCNL/Randeng-Pegasus-523M-Summary-Chinese",
        output_hidden_states=True,
        cache_dir= './test_pegasus_dir' # 指定hugging face缓存目录
    )

dongxqm avatar Aug 02 '22 02:08 dongxqm

image 我是在windows上将tokenizers_pegasus.py中的tmp.dir替换程一个本地文件夹,运行之后会自动下载。

oblialbum avatar Aug 02 '22 17:08 oblialbum

@jiangliqin 问题解决了吗?

dongxqm avatar Aug 15 '22 02:08 dongxqm