wangguanhua

Results 8 issues of wangguanhua

您好,我这边也出现了loss变nan的问题,我网上搜了一下,发现有一种解决方法方法是添加hook函数(连接如下:https://discuss.pytorch.org/t/ctcloss-performance-of-pytorch-1-0-0/27524),我按照上述方法,定义backward_hook,并在倒数第二行添加crnn.register_backward_hook(backward_hook)代码,您看这样的解决方法在逻辑上是否可行? ![1](https://user-images.githubusercontent.com/25172472/80789844-d2362680-8bbf-11ea-8582-e4d9213fe0e8.png)

您好,我对unilm的理解是:它是在bert的基础上进行fineturn,只不过微调过程中对mask方式进行了更改。不知道我这样的理解对不对。

如题,简单提供一两条数据就好。

您好,我看了一下您的bert_seq2seq代码,貌似没有用beam search的方式去解码?这样的话会不会影响准确率?

您好,论文中的最终loss是三个不同的损失函数相加等得到,而我看您的是RPN_CLS_Loss、RPN_REGR_Loss两个损失函数相加,请问我是有什么理解不到位的地方吗?

您好,我看您数据集有中文的也有英文的。但中英文取token的方式不是不一样吗?英文是wordpiece,中文是直接切分,我没看到您的代码中有做相关的处理。或是我对您的代码理解有误?

![image](https://github.com/xlzy520/bilibili-img-uploader/assets/25172472/0f658dc1-42e9-460c-93f9-84f287efe51c) 如图所示。插件从chrome市场安装