t5-pegasus-chinese
t5-pegasus-chinese copied to clipboard
基于GOOGLE T5中文生成式模型的摘要生成/指代消解,支持batch批量生成,多进程
请问可以在其他生成式下游任务上微调吗?比如文本风格迁移
博主,您好.请问如果我要做问答的话,数据处理方面 input_ids与decoder_input_ids分别是问题与对应的回答吗?
您好,我看huggingface上有个模型imxly/t5-pegasus,请问和这里提供的chinese_t5_pegasus_base.zip是同一个模型吗,还是说前者是原生模型,后者是预训练过的?感谢解答。
文本摘要
你好,我想请问一下,微调时我的数据实验结果不太理想,如果我想给模型喂一些先验知识,让他能够学习到这些,用先验知识辅助完成摘要的话,是需要在预训练原模型上进行更改重新训练,还是在微调层面对输入结构进行更改就可以呢?
请问如何对摘要生成的字数限制?
How to generate a word limit for the abstract
ModuleNotFoundError: No module named 'bert4torch.model'我安装了bert4torch,但是没有model
我换了一个中文新闻摘要数据集,跟在作者提供的summarization_csl数据集上相比,训练时验证集的rouge从0.6掉到了0.2,有人知道可能的原因吗。。。
指代消解
请问大佬如何这个模型如何做指代消解