lilin
lilin
> 您好,可以参考[导出DOTA标签](https://github.com/CVHub520/X-AnyLabeling/blob/main/docs/zh_cn/user_guide.md#%E6%A0%87%E7%AD%BE%E5%AF%BC%E5%85%A5%E5%AF%BC%E5%87%BA)。 作者大大 我自己训练的模型要用起来是放在哪个目录呀,我看文档里没写
我是按照这里面的方法转的onnx模型,成功转出来了 https://github.com/airockchip/ultralytics_yolov8/blob/main/RKOPT_README.zh-CN.md 输出信息如下,我看到了原始维度就是这个 (16, 3, 640, 640),是不是要在转换的时候调整输入维度到 (1, 3, 640, 640)再转呀 ` python .\exporter.py Ultralytics 8.3.27 🚀 Python-3.10.13 torch-2.5.1+cpu CPU (13th Gen Intel Core(TM) i9-13900KF) YOLOv8n-obb summary (fused): 187 layers,...
> 我之前跟你遇到了同样的问题,你看看你的default.yaml的# Export settings是不是把format改了,我之前改成了onnx然后就出这个错误了 我是根据这里说的转onnx模型的。只改了自己的模型路径。后面我发现在转换rknn的时候,不进行量化就能转出来,目前正在测试这个转出的rknn模型能否使用。 
我创建了一个百度bos,并把model.json 和 chunk_1.dat放在了一起。我查看了init函数  发现并不需要传入detConfig参数。 然后我重新修改代码如下: await ocr.init("https://js-models-lilin.cd.bcebos.com/model.json","https://js-models.bj.bcebos.com/PaddleOCR/PP-OCRv3/ch_PP-OCRv3_rec_infer_js/model.json"); 我看F12日志是能下载模型,但是一直在加载中。电脑是集显,用的Google浏览器  如果是官方的模型,是可以加载并识别的 await ocr.init("https://js-models.bj.bcebos.com/PaddleOCR/PP-OCRv3/ch_PP-OCRv3_det_infer_js_960/model.json","https://js-models.bj.bcebos.com/PaddleOCR/PP-OCRv3/ch_PP-OCRv3_rec_infer_js/model.json"); 
这是console的报错如下: 
> I am getting an error when running the instant-ngp.exe > > ``` > (ngp) C:\Users\ITAEC\Documents\Github\instant-ngp>C:\Users\ITAEC\Documents\Github\instant-ngp\build\instant-ngp.exe --scene /data/lab/horizontal > 13:02:48 SUCCESS Initialized CUDA 11.8. Active GPU is #0: NVIDIA GeForce...
> 你可能用的模型是最新版本Paddle导出的,而先前的代码适配的是2.3或者2.4版本的Paddle。 > > 你可以试下将Paddle版本降级,重新导出后再部署 好的。我再试试
> 你可能用的模型是最新版本Paddle导出的,而先前的代码适配的是2.3或者2.4版本的Paddle。 > > 你可以试下将Paddle版本降级,重新导出后再部署 大哥你好。我训练用的是paddle的最新代码,训练出的v3模型。然后转换我是用的FastDeploy\examples\application\js\converter 下面的python .\convertToPaddleJSModel.py --modelPath=recmodels/inference.pdmodel --paramPath=recmodels/inference.pdiparams --outputDir=recmodels 我需要降版本重新训练么