wangguanhua
wangguanhua
您好,我这边也出现了loss变nan的问题,我网上搜了一下,发现有一种解决方法方法是添加hook函数(连接如下:https://discuss.pytorch.org/t/ctcloss-performance-of-pytorch-1-0-0/27524),我按照上述方法,定义backward_hook,并在倒数第二行添加crnn.register_backward_hook(backward_hook)代码,您看这样的解决方法在逻辑上是否可行? 
unilm问题
您好,我对unilm的理解是:它是在bert的基础上进行fineturn,只不过微调过程中对mask方式进行了更改。不知道我这样的理解对不对。
如题,简单提供一两条数据就好。
您好,我看了一下您的bert_seq2seq代码,貌似没有用beam search的方式去解码?这样的话会不会影响准确率?
有关损失函数问题
您好,论文中的最终loss是三个不同的损失函数相加等得到,而我看您的是RPN_CLS_Loss、RPN_REGR_Loss两个损失函数相加,请问我是有什么理解不到位的地方吗?
您好,我看您数据集有中文的也有英文的。但中英文取token的方式不是不一样吗?英文是wordpiece,中文是直接切分,我没看到您的代码中有做相关的处理。或是我对您的代码理解有误?
 如图所示。插件从chrome市场安装