DBNet.pytorch
DBNet.pytorch copied to clipboard
A pytorch re-implementation of Real-time Scene Text Detection with Differentiable Binarization
ValueError: too many values to unpack (expected 2)
请问大家有没有遇到这样的问题,就是ResizeShortSize无论设置成什么,在验证过程中,图像的尺寸都并没有根据这个尺寸来,而是跟原始尺寸相关,比如td500中,验证的尺寸是1296*1728
请问程序不运行,也不报错,这种情况有人遇到过吗
**作者您好,我对自适应阈值一块比较感兴趣。在实验中发现一个比较有意思的现象,就是我把阈值损失以及binary的损失都删除了,只保留了模型预测的损失,结果模型的整体性能有了很大的提升。我想跟您讨论一下这个现象,以及您当初设计这个模块的想法,期待您的回复 Hello, the author. I'm interested in adaptive threshold. An interesting phenomenon was found in the experiment, that is, I deleted the threshold loss and binary loss, and only retained...
Hi, may I know why the accuracy of recall is very less as compare to precision? Or how can I increase Recall accuracy? Please suggest. Thanks.
預訓模型下載
作者您好, 很感謝你重寫這模型, 我這邊有個問題 我直接在 [MhLiao] Github中下載了 ic15_resnet18 以及 ic15_resnet50 兩個.pth, 可是當我載入它作為predict 的模型時, 遇到 KeyError: 'config' 這錯誤. 請問我要去哪裡可以下載你的ic15已預訓好的模? 謝謝
关于预训练
作者你好,我想请问如果我想自己跑一个预训练模型出来,请问我该运行哪个yaml文件?又该如何设置配置文件?
 目前跑了60个epoch,显示第45epoch最佳了,请问我还需要跑多点看看吗?
data_loader/modules/augment.py中 ``` if self.keep_ratio: # 将图片短边pad到和长边一样 h, w, c = im.shape max_h = max(h, self.size[0]) max_w = max(w, self.size[1]) ``` self.size[0]是w,self.size[1]是h
我是用印章标注数据训练出来,识别结果如下:  是怎么回事?怎么解决啊