guided_summarization icon indicating copy to clipboard operation
guided_summarization copied to clipboard

关于论文的小疑问

Open FearAlwaysWorks opened this issue 3 years ago • 9 comments

大佬你好!感谢你的分享,受益匪浅! 我有点没看懂这个结果。请问这个Oracle结果是在测试集上使用Oracle生成signals吗?个人感觉在测试集上使用标签来生成guidance signal有一些牵强。。。 如果是测试集的Oracle的话,请问有没有在训练时分别使用Oracle和automatic predicted的结果对比呀。 image 不好意思打扰你

FearAlwaysWorks avatar Dec 06 '21 08:12 FearAlwaysWorks

还有一个疑问。 论文中提到keywords的自动预测方法是BertAbs。 训练BertAbs生成keywords的时候,是用target summaries里提取出的keyword作为target来微调吗?

FearAlwaysWorks avatar Dec 06 '21 09:12 FearAlwaysWorks

你好,是用在测试集上用oracle,是为了给一个模型performance的upper bound。Table 10和13有训练用oracle或者automatic predicted的结果对比。

是先从source document提取highlighted sentences,然后再从这些highlighted sentences提取keywords。

zdou0830 avatar Dec 06 '21 18:12 zdou0830

谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。

FearAlwaysWorks avatar Dec 07 '21 02:12 FearAlwaysWorks

都是先在各个数据集上训练好模型以后再用的,比如MatchSum要用在PubMed上的话,就先在PubMed上从头训练一个模型,不是finetune的。

zdou0830 avatar Dec 07 '21 04:12 zdou0830

还有个问题。如果用Auto-predicted来训练guided-summarization,那生成signals的模型是用什么训练得到的呢 对不起又打扰你。。。

FearAlwaysWorks avatar Dec 14 '21 05:12 FearAlwaysWorks

比如用在CNN/DM上,就先用oracle从原本的CNNDM的训练集提生成signals的模型的训练集。

zdou0830 avatar Dec 14 '21 06:12 zdou0830

谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。 你好,请问这个问题你解决了吗

Gloriaf888 avatar Nov 10 '22 07:11 Gloriaf888

谢谢回复! 请问生成guidance signal的那些模型是直接用的作者训练好的参数,还是先在根据任务在数据集上fine-tune再用呀? 就比如用Mathsum生成pubmed的抽取式摘要之前会先用pubmed来fine-tune,用BertAbs生成keywords前会先fine-tune模型吗? 对不起刚刚入门问题有点多,打扰你了呜呜。 你好,请问这个问题你解决了吗

Gloriaf888 avatar Nov 10 '22 07:11 Gloriaf888

yo~我是王晓也,我已经收到你的邮件了,我会尽快查看的,如果需要我的回复,请您耐心哟~

FearAlwaysWorks avatar Nov 10 '22 07:11 FearAlwaysWorks