quliulangle
quliulangle
训练的时候报错
history = parallel_model.fit(.......)这句话报错 AttributeError: 'BatchDataset' object has no attribute 'ndim'
anyone met this error?
关于模型大小的问题
各位老哥: 我训练完后模型文件很大 .meta文件有140M .data-00000有8M多 就算转换成.pb文件 也要76M 和作者的模型大了很多呀 有知道怎么优化的呢么
Is anyone met this error ?
请提供下述完整信息以便快速定位问题/Please provide the following information to quickly locate the problem - 系统环境/System Environment: - 版本号/Version:Paddle: PaddleOCR: 问题相关组件/Related components: - 运行指令/Command Code: - 完整报错/Complete Error Message: 我看官方教程中使用的是configs/det/detmv3db.yml,但是这个配置文件里是没有label_list和num_classes这两个参数的啊
你好: 我在使用ncnn时,用onnx转ncnn报错,不支持Split。然后我按照你tools/onnx里面的文件把原始ncnn替换后重新编译,然后再次运行onnx2ncnn的时候,报Segmentation fault 的错误了。 请问,您遇到过这个问题吗