tao.qin

Results 4 comments of tao.qin

> 官方代码推理时onnxruntime没有使用GPU ![image](https://user-images.githubusercontent.com/48081128/189123816-c5303bd0-b139-4892-8c0f-061df9941764.png)

> 哦,我看错,那FAQ对代码的解释是对的。 > > 我想实现的功能是这样的,在训练的每个iter也就是一次前向反向传播用到的batch_size的数据,按照比例从不同的数据源采样而来。 > > 比如说batch_size是256,有两个数据源,ratio_list为0.1:0.9,那一个iter迭代中的batch_size256的数据中有10%采样来自于数据源1,而90%采样来自于数据源2。 > > 这种需求主要是这种场景,比方说我之前用的总数据量有2千万来训练模型,后来发现模型对某一个场景类型数据识别不好,就增加了一些这种场景数据比如50万,这样我可以把新增加的数据加到原本的2千万总数据当中,但这样效果不是很明显,因为相对于总数据量来说新增数据比较少,也可以采用微调,但会影响原来对其他数据的识别效果,模型训练会遗忘见过次数很少的数据。 > > 而采用我说的方法,这样在一个iter的迭代训练中,能够保证模型学习覆盖到每个数据源,这样对于要针对性优化识别不好场景,效果会不会好点。 > > 官方能实现这种功能,或者怎么修改代码吗? 自己修改一下数据处理的源码,对两个数据集按比例动态采样组合成一个epoch,然后合并成一个新的list进行训练,训练的时候不使用shuffle就可以实现这种效果。

> 可以尝试: 1)使用PP-OCRv3模型 2)根据测试图片尺寸,调整'det_limit_side_len'参数 3)调整'det_db_thresh'参数 4)可以通过finetune提升垂类效果的 非常感谢。

> 通过安装 silero 的依赖,我解决了这个问题 你好,能把你解决这个问题的详细步骤发一下吗,非常感谢