ljx

Results 10 comments of ljx

你好,这个还不支持多GPU训练,如果要改的话,你可以参考网上的教程,不是很复杂 On Mon, Aug 27, 2018 at 10:14 AM LiPeng wrote: > 感谢博主的无私分享! > > 目前想在多GPU平台上跑这个模型,但是看model.py里只有device:cpu这个变量,不知道如果改成多gpu的版本,还有哪些参数或设置需要更改啊? > 先谢过啦! > > — > You are receiving this because you are subscribed...

你好: 最近忙于毕业材料的事,所以没时间回复。 1. CNN padding的问题:CNN在两侧padding是为了保证卷积得到的feature map与输入一致,我们一般用窄卷积(narrow conv)就行了; 2. 3D卷积核的shape中,1表示的是通道数,这个值也不是恒定为1,例如RGP图像的通道就是3;或者层叠的卷积层,第i层的输入通道即第i-1层的输出通道数(i-1层的卷积核数量);参数的顺序参考官方文档; 3. 默认参数activation_fn=tf. nn.relu,当时我用的版本可能没有默认激活函数,如果默认是relu的话,那外层就没必要再激活一次了; 4. scope.reuse_variables()应该是为了重用变量,具体不太清楚。 另外,这个库不打算再维护了,现在开始用pytorch了,可以参考这个功能更全的版本:https://github.com/liu-nlper/SLTK 祝好 On Thu, May 24, 2018 at 3:36 PM, 率怀一 wrote: > 另外很多论文里的CNN都是从两侧进行padding的(比如Named Entity Recognition...

中文还是基于字吧,可以加入分词特征 On Thu, Oct 25, 2018 at 2:42 PM yuye2133 wrote: > RT > > — > You are receiving this because you are subscribed to this thread. > Reply...

可以将各个特征向量拼接起来输入到lstm On Fri, Oct 26, 2018 at 2:37 PM yuye2133 wrote: > 感谢回复,再问个问题哈,我看到除了用字特征,还有词性特征等等,那是各个特征,分别经过双向lstm,最后再concat起来输入到crf里去的吗? > > — > You are receiving this because you commented. > Reply to this email directly,...

@SivilTaram Hi Qian, I used the same settings as the non-BERT model when trained the BERT-based model(L-6_H-256_A-8). I have not trained with the official 12-layer BERT model yet, I guess...

@juntaoy 感谢解答。 我用的是小型的BERT(hidden size是256),但是BERT-CRF用的也是同样量级的,算是相对公平的比较。我分析可能是我的语料里存在不少边界模糊的标注(就是说多标/少标1个字或几个字也是正确的),导致训练数据里存在一些"假正例",可能是span-based模型对假正例比价敏感?我后续尝试做负采样试试。 您说的关于合成mention emb的问题,我感觉是有道理的,加入实体头尾、中间的att表示可能好些。 持续关注您的工作~

请问只有初赛的数据吗

same error on ubuntu, how to solve? FileNotFoundError: [Errno 2] No such file or directory: '/usr/fool/maps.pkl'

@rockyzhengwu 好了,很好的工具,建议把文档写的全点,给出训练语料来源,词性映射表之类的;还有增加一些和其它工具的在开源语料上的对比实验,包括分词性能和分词速度。

请问下词表的大小只有64790,为什么会出现id为64790,64792?