bert_seq2seq icon indicating copy to clipboard operation
bert_seq2seq copied to clipboard

pytorch实现 Bert 做seq2seq任务,使用unilm方案,现在也可以做自动摘要,文本分类,情感分析,NER,词性标注等任务,支持t5模型,支持GPT2进行文章续写。

Results 51 bert_seq2seq issues
Sort by recently updated
recently updated
newest added

> > 您好 在不断降低学习率之后loss还是卡在原来的位置,请问如何能与您取得联系? > > 我的也是,训练到第三个epoch,再往后loss就不变了,请问你解决了吗? 应该解决了,后来他加我微信了。 _Originally posted by @920232796 in https://github.com/920232796/bert_seq2seq/issues/7#issuecomment-667139678_

请问bart做标题生成怎么跑起来?

你好 我刚刚接触到这个领域,请问在做文章摘要生成时使用对联的例子是可以的吗? 在对联的seq2seq模型中只有一个bert作为encoder,这样子可以很好的完成seq2seq模型吗

楼主你好,我数据量大约130万,src长度大约100,tgt长度大约40,用unilm多少epoch收敛比较的好?我现在4个epoch发现预测的标题,会出现不通顺/字符重复的问题

请问这个代码所需的文件是不全的吗?如./state_dict/文件下的roberta_wwm_vocab.txt等?

大佬你好我是一个刚接触实体识别的萌新,看了你的代码有几个问题请教: 1.这个医学的medical_ner_update.txt在哪里下载呀? 2.这个医学的代码可以用bert模型跑吗?直接运行吗? 还希望大佬告知一下。刚接触懂得太少了,谢谢。