wwzh

Results 31 comments of wwzh

> Can you try loading the model and doing inference with OpenCV? Now yolov7 project no support export to onnx format, so how loading "yolov7.pt" by readNetFromTorch( )?

> > 1. 将自己的数据准备好标签文件,文件内容格式参考项目中的train.txt即可。 > > 2. 参考crnn_main_v2.py里面的内容,修改对应的dataloader中的图片位置、标签文件路径参数即可进行自己数据集的训练。 > > 3. 如果想用他的模型作为你的初始化参数,可以在params.py中的expr参数进行指定。 > > ps. 可以计算出自己的图片的均值、标准差的信息,替换掉params.py中的均值标准差参数。也可以根据自己的图片实际情况修改网络结构、进入网络放缩的图片的宽高情况。不过这样的话就不能用项目中已有模型参数进行初始化,自己重新训练即可。 > > 您好,非常抱歉打扰,我想请教个问题;当自己训练集中每张图片对应的文本长度不同的时候该怎么处理才能让它们对齐并放入batch进行训练? 他们都是自动生成的训练图片,很少有你这么干的

> @wwzh2015 hello 铁子,我自己生成了一批样本,长度从1到20,只训练英文,可以训练不定长的,但是加上中文,数字,符号,就不行了,训练中loss会变成nan ,你知道怎么解决这个问题了吗?我看我这个程序里面也把每一个批次的预测给padding了 最好定长训练,不然需要ctc

> 大神, 你的博客拜读了, 但是我下载的代码的focus和你说的已经不一样了(可能yolox的代码又修改了), 我转的onnx在opencv里面可以加载, 用你提供的C++代码也是没有检测框(你提供onnx的就很正常), 不知你是否可以提供下nano和tiny的onnx 你concat+conv了没有?

darknet ocr里面有怎么添加自定义层

> if yolov5 can work with opencv4.5.0, I think it will work with OpenCVForUntiy2.4.1. > [ultralytics/yolov5#239](https://github.com/ultralytics/yolov5/issues/239) > [opencv/opencv#18920](https://github.com/opencv/opencv/issues/18920) > [opencv/opencv#18655](https://github.com/opencv/opencv/issues/18655) why

> 用这个作为第一部的检测算法,将检测出来的车牌,送到识别网络即可。 问题是双黄牌检测出来也没办法识别

开源开了假的,吸引你买他们正版

> 好的,谢谢你的解答,我发现将DB = True后对单层的车牌又无法识别,这个是程序本身的问题吗?有没有一种兼顾的方式 请问DB在哪里,我没找到呀

我用opencv420的dnn模块读取最近更新的ocr模型,还是错误,不能识别,检测就更不可能了,如果非弄成python的,根本无法边缘部署(直接秒破解),只能放云上,现在BAT大厂的OCR几乎都免费了,谁还会用我的云识别? 没有部署价值,放弃该项目。 整个github一个像样的基于opencv的中文识别都没有。 我从第一版chinese ocr就一直关注,从来就没跑起来过(win10) github有个精度更高的keras/pytorch下的 Chinese OCR(300w数据训练的),我看看能不能改成win10的。