SoulProficiency
SoulProficiency
> 有两个byteTrack对象 t1,t2 发现这类的对象所分配的id均来源与此处 `int STrack::next_id() { static int _count = 0; _count++; return _count; }` > > 怎么修改才能够在一个应用中new多个byteTrack以用来跟踪不同视频下的多个目标,且id分配互不影响? 两个类使用同一个追踪器进行追踪,在updata之前创建一个temp,存放区别类别的flag
1.下载https://github.com/airockchip/ultralytics_yolov8,然后pip install -r requirements.txt 2.修改./ultralytics/cfg/default.yaml对应的模型路径 3.修改./ultralytics/engine/exporter.py,在开头添加 ` import sys sys.path.append("./") sys.path.append("../../") ` 4.根目录运行python ./ultralytics/engine/exporter.py > 请问你解决了吗?我也遇到一样的问题
i load pre-trained model but it needs radar data, i found the init dorn did not need radar data,where can we load dorn weights?
it just 0.5FPS with torch.cuda in 1650super we still have a long way to go.
how can we export l0(pt) to onnx?something wrong when i follow the sam.md to export onnx,here is the error when onnx2trt: ``` 02/18/2024-09:15:57] [W] [TRT] parsers/onnx/onnx2trt_utils.cpp:364: Your ONNX model has...
same to xl1,tensorrt8.2 ``` [libprotobuf WARNING /home/jenkins/agent/workspace/OSS/OSS_L0_MergeRequest/oss/build/third_party.protobuf/src/third_party.protobuf/src/google/protobuf/io/coded_stream.cc:81] The total number of bytes read was 797487046 [02/18/2024-09:27:14] [I] [TRT] ---------------------------------------------------------------- [02/18/2024-09:27:14] [I] [TRT] Input filename: xl1_encoder.onnx [02/18/2024-09:27:14] [I] [TRT] ONNX IR...
GPU是一张3080TI
相同的问题,请问你的平台是什么?以及驱动版本是多少?
> > 相同的问题,请问你的平台是什么?以及驱动版本是多少? > > 你好,我通过修改mindyolo/models/losses/yolov5s_loss.py文件下的第133行修改为 `loss_item = ops.stop_gradient(ops.stack((loss, lbox, lobj, ms.tensor(lcls, dtype=ms.float32))))` 解决了这个问题,你可以看看是不是这个原因 感谢您的回复,目前遇到了新的问题。 目前使用的是altas 300vpro,安装了最新的驱动,提示安装了ascend版本安装成功,之前的老驱动只能安装cpu版本,运行run_check()现在一直提示如下错误:  所以还想咨询一下你的训练平台以及对应的驱动版本是多少啊?感谢~
> > > > 相同的问题,请问你的平台是什么?以及驱动版本是多少? > > > > > > > > > 你好,我通过修改mindyolo/models/losses/yolov5s_loss.py文件下的第133行修改为 `loss_item = ops.stop_gradient(ops.stack((loss, lbox, lobj, ms.tensor(lcls, dtype=ms.float32))))` 解决了这个问题,你可以看看是不是这个原因 > > > > > > 感谢您的回复,目前遇到了新的问题。...