t5-pegasus-chinese
t5-pegasus-chinese copied to clipboard
基于GOOGLE T5中文生成式模型的摘要生成/指代消解,支持batch批量生成,多进程
在个人PC上跑了一下train,显卡6G的3060,把batchsize设为4,然后每一次迭代都del loss,cur,mask,labels,prob和 torch.cuda.empty_cache()。即便如此一个epoch只能跑到38%就没显存了,请问还有什么优化方法吗
 da 大佬您好,想问一下您在计算rouge值时为什么用空格连接每个字,这样不是将rouge值提高了吗?

优化推理速度
这里如何把模型转onnx提高推理速度
预训练数据集
请问作者对t5的中文预训练是用的什么数据集?谢谢!
文本摘要
您好请问下,用这个模型实现文本摘要的话,把data换成文本摘要相关的数据集,然后跑微调就可以了吗
看到作者脚本里面finetune的学习率是2e-4,会不会太大了?预训练一般都是设置3e-5左右?需不需要用warmup?
对于长文章的文本摘要是否支持? 以及此方法的推理速度怎么样?
文本摘要前置動作
作者好,想確認是不是用pretrain model, 再帶入summarization_csl_train.tsv進行finetune,得到的模型進行推理就可以了呢