NLPer

Results 18 comments of NLPer

![图片](https://user-images.githubusercontent.com/82627285/179441271-7d41d1b2-725d-4969-ac78-c97df606e3c3.png) 训练了好几次,改用了[hfl/chinese-roberta-wwm-ext](https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main)还是差着一点呀

改用了[hfl/chinese-roberta-wwm-ext](https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main)也还是差着一点 我记得是10个还是33个epoch后模型就已经收敛了

> 用`conv_input_size`替换掉`config.conv_hid_size * len(config.dilation)`即可 好的,谢谢

> > > > 明白了,需要不同处理方式,那我还是把英文的实体先去掉。。。。 你好,数据集预处理的代码可以分享一下吗?邮箱[email protected]

> 在自己定义的数据集上,训练集的LabelF1是增加的,但valid上的LABEL和Entity的得分都不变,可能的原因是什么呢? 老铁,借楼问一下我想要处理的数据集是BIO标注的,想改成这个项目下的这种表示,不知道老铁是不是这种情况,想问有没有现成的轮子。我的邮箱[email protected]

> 对于3:我这样理解对吗?如果不看batch这一维,就是[L,L,num_class]就是num_class个[L,L]的矩阵,然后argmax后变成[L,L]。那意思是每一句话中包含的NNW,THW*预测出来num_class种可能,然后返回最大那种?

> 1.原文确实对SPC中的卷积进行了分组操作 2.小马哥的PSA模型会出现就地操作的报错,需要调整一下才能运行。 大佬,具体怎么解决呀?使用PSA.py时会报错 `RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same`, ` .cuda`了还是一样的错

> > > > 说明输入数据在GPU中,模型在CPU中。找到模型权值,放进Cuda就好了 这个问题我解决了,就地操作问题怎么解决呀

> > 大佬,您说的将列表 '[]' 替换为 nn.ModuleList()具体怎么实现啊 > > 比如PSA.py文件,如下修改: `class PSA(nn.Module): > > ``` > def __init__(self, channel=512, reduction=4, S=4): > super().__init__() > self.S = S > > self.convs =...

> 大佬,您说的将列表 '[]' 替换为 nn.ModuleList()具体怎么实现啊 大佬,请问你最终解决了吗?怎么解决这个问题啊