t5-pegasus-chinese icon indicating copy to clipboard operation
t5-pegasus-chinese copied to clipboard

基于GOOGLE T5中文生成式模型的摘要生成/指代消解,支持batch批量生成,多进程

Results 22 t5-pegasus-chinese issues
Sort by recently updated
recently updated
newest added

在个人PC上跑了一下train,显卡6G的3060,把batchsize设为4,然后每一次迭代都del loss,cur,mask,labels,prob和 torch.cuda.empty_cache()。即便如此一个epoch只能跑到38%就没显存了,请问还有什么优化方法吗

![1656812926703](https://user-images.githubusercontent.com/39476994/177021291-798dce5c-471f-4bbf-8088-acae09530762.png) da 大佬您好,想问一下您在计算rouge值时为什么用空格连接每个字,这样不是将rouge值提高了吗?

![image](https://user-images.githubusercontent.com/83006984/174433581-9770788a-2e9b-440c-bb61-db3b10819e3e.png)

这里如何把模型转onnx提高推理速度

请问作者对t5的中文预训练是用的什么数据集?谢谢!

您好请问下,用这个模型实现文本摘要的话,把data换成文本摘要相关的数据集,然后跑微调就可以了吗

看到作者脚本里面finetune的学习率是2e-4,会不会太大了?预训练一般都是设置3e-5左右?需不需要用warmup?

对于长文章的文本摘要是否支持? 以及此方法的推理速度怎么样?

作者好,想確認是不是用pretrain model, 再帶入summarization_csl_train.tsv進行finetune,得到的模型進行推理就可以了呢