管静

Results 6 comments of 管静

@austinyoung1 Hi, austinyoung1. Have you solved it? I ran into the same problem as you.

用的是精处理后的Pegasus伪摘要式语料,近30G,暂未开源~

您好~ 是的,参照data路径下的数据格式,把相同格式的文本摘要数据集放在data路径下。 并修改run_with_train.py中的参数"--train_data"和"--dev_data"为您的训练集文件和验证集文件即可。

您好~ 我们常用的学习率是5e-5,用于BERT。但由于架构差异,T5的学习率要大10倍才行,所以用了2e-4。

zhentao,你好 1. 目前项目上处于模型迭代优化阶段,计划支持长文本输入(暂不支持),到时会同步更新在本Git里 2. 此方法支持组batch推理,自测batch_size=600,从416ms/条提速至19.2ms/每条;此外,支持Linux上多进程推理,解决CPU推理速度问题,多进程推理的代码在单独的branch里,明天我再更新下代码

> > 1. 到时会同步更新在本Git里 > > 您好!我想问下,您打算怎么处理长文本呀?谢谢! 您好,推荐用Roformer处理长文本