zjutnlper

Results 20 comments of zjutnlper

我只能说,这块联合实体关系抽取的模型,我基本都跑达不到论文效果

> 我改了源代码 你说的差是有多差 我目前测出来 中文的f1在71左右 你好,想搞中文的要怎么整,只要换个预训练吗,我换个直接爆显存了

> > 我改了源代码 你说的差是有多差 我目前测出来 中文的f1在71左右 > > 可以给我看看你改的源码嘛, 你好,想用自己的中文数据集应该怎么改源码呢,我就换了个预训练,效果特别差

> 主要是tokenizer部分 那块怎么了吗,源码就调用了huggingface那个接口,没看出啥不合理,请指教大佬

> 太久远了 记不大清楚了 英文的token跟中文的token不同 你直接换模型 bert-large肯定适配不了很好的chinese啊 每个模型有他自己的vocabulary 我是换了预训练模型的,bert-Chinese这个,效果确实不好

> 我的意思 不是模型不好 是每个模型的tokenizer就不一样 他的源码是英文的编码逻辑 你现在换中文的 肯定不行的 你得把tokenizer换成是中文的那种分词逻辑才行的 大佬,那该怎么改,无经验

> self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4 > > 要改后面那个数字,前面的数字只能修改WebNLG的batchsize 你好,请问中文数据集这块,换个预训练就就可以了吗,那个batch我解决了,但实际训练的时候非常差效果。还有我设置100个epoch,他却20个就停止了。

> > > self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4 > > > 要改后面那个数字,前面的数字只能修改WebNLG的batchsize > > > > > > 你好,请问中文数据集这块,换个预训练就就可以了吗,那个batch我解决了,但实际训练的时候非常差效果。还有我设置100个epoch,他却20个就停止了。 > > 你好,请问你解决中文训练的问题了吗,我把BERT换成了中文,但是F1全是0,是跟参数有关吗 你好,具体我也不清楚,英语分词和中文分词逻辑不太一样,我训练出来的效果很差

用的是大佬给的百度数据

> > 用的是大佬给的百度数据 > > 你好请问解决了吗,我现在也遇到了这个问题 就是训练次数太少了,到了某个epoch就会上涨