CRNN_Chinese_Characters_Rec icon indicating copy to clipboard operation
CRNN_Chinese_Characters_Rec copied to clipboard

(CRNN) Chinese Characters Recognition.

Results 79 CRNN_Chinese_Characters_Rec issues
Sort by recently updated
recently updated
newest added

您好,我们是一家央企的人工智能公司(中译语通科技股份有限公司)主要从事大数据、智慧城市、机器翻译、知识图谱、语音识别、ocr识别等技术的研发,我是这边的技术负责人在github上看到您的开源系统很感兴趣,希望和您进一步沟通交流。 您可以加我微信:18611586751

使用pytorch自带的CTCLOSS,pytorh版本1.7.1,训练自己的数据集,出现了NAN,将训练集中标签长度大于40的剔除,并删除对应的图片后,训练正常,没有出现NAN 使用第三方CTCLOSS也可以解决NAN的情况 https://github.com/SeanNaren/warp-ctc 我用的这个,没有出现NAN,但是GIT主的预处理模型似乎没用了,LOSS很大,不如用自带的LOSS配合GIT主的预处理模型,LOSS下降的快

对图片的长度要求吗?

进行模型训练的时候,会有内存使用增长的情况,极限压测(8个任务占满8张卡),内存增长特别明显。这个怎么解决

![图片](https://user-images.githubusercontent.com/30583522/101232619-86b3a000-36ed-11eb-88bc-2b07dedacecf.png) 训练一开始preds预测全为nan,请问有谁可以帮忙解答一下吗?谢谢! 下面是我的训练标签txt文件 ![图片](https://user-images.githubusercontent.com/30583522/101232671-d8f4c100-36ed-11eb-9adb-e4ce7c8f44f4.png)

大佬你好 我训练自己的数据集模型输出是nan,如下图 请问该怎么解决? 我操作如下: 1.own_config.yaml 配置好自己的数据集路径 2. 对自己数据集的label取set,将其添加进lib/alphabets.py里面 原本alphabet有6000多字符,加进去我自己的有7000多 3.开始训练 4. 输出nan,loss 是nan, nan, nan.......... ![image](https://user-images.githubusercontent.com/50360389/98940185-92180f00-2525-11eb-9e43-9c570451ee9f.png)

高度不是32的数据集,num_workers不设置为0运行不了,显示RuntimeError: DataLoader worker (pid(s) 27292) exited unexpectedly,有好兄弟有解决方案吗

用等线体生成字符数据的时候,, 句号。这个在图片中没有 ,不知道是什么情况

一開始有 五十幾 samples/s 差不多40個epochs後掉到剩 十幾 samples/s 請問為何會這樣?

代码里面在把数据传入LSTM网络的时候把batch_size变换到了第1维(0开始),DataParallel默认按照第0维进行拆分和拼接。 所以第一种方法可以临时修改DataParallel中gather函数传入的参数dim改成1,即可解决,但是跑别的代码要记得改回来。 另一种方法可以将模型的最后输出batch_size改到第0维,这样并行就会按照batch_size拼接,然后再变换到第1维。(从代码中看的话传入CTC损失函数的batch_size是第1维)