Ray
Ray
我从九月到现在的心路历程和你的专栏里写的非常接近,但是苦于技术实力,两个礼拜了都没有复现成功,感谢作者的开源。
https://github.com/FeiYull/TensorRT-Alpha/blob/403291186bb91fa69c76907b68773de94fa7c15a/yolov8-pose/decode_yolov8_pose.cu#L42 decode_yolov8_pose_device_kernel中最后一行让我有些疑惑。 在41行*pout_item++ = 1;按照逻辑应该是先让pout_item往前偏移一位,然后在赋值1,如果这样的话,在memcpy的时候是不是少了一个+ 1,应该memcpy(pout_item+ 1, pitem + 1, (dstWidth - 7) * sizeof(float));否则不是把刚刚赋值的keepflag给覆盖了吗?
我看到kernel里有norm device函数,但是默认值是0,1,也没有修改过,但是我看官方repo里v5是包含/255的前处理的,请问是把/255存入模型中了,还是怎么回事?
我看到了 https://github.com/Melody-Zhou/tensorRT_Pro-YOLOv8/blob/36d11c32baaf15dc7facee1f451fd3a152b0d700/src/tensorRT/infer/trt_infer.cpp#L423-L427 https://github.com/Melody-Zhou/tensorRT_Pro-YOLOv8/blob/36d11c32baaf15dc7facee1f451fd3a152b0d700/src/tensorRT/infer/trt_infer.cpp#L260-L263 这两处代码,你是否是在这里尝试解决显式batch导出的onnx无法使用mImpl->getMaxBatchSize()的问题? 请问这个问题有什么进展吗?使用torch.export模块导出的onnx模型是不是必然是显式batch的?