Jian Lin
Jian Lin
YOLOX 输入不需要归一化,可以尝试注释归一化代码
> i just want to compare my yolov7 model with yolov7.trt model , performance, is there any way we can make comparison of model? like precision, recall,accuracy? @Linaom1214 you can...
> @Linaom1214 for this i need to pass labeled (annotation data) right? but I have inference video (after running .trt model on video ) , so I don't have ground...
跟平台设备都有关系, int8 提升速度的同时会掉点
输入的图像直接用real sence的api取就行了,哪一款相机呢 ---- 回复的原邮件 ***@***.***>发送日期2024年03月02日 11:28 ***@***.***> ***@***.***>主题[Linaom1214/TensorRT-For-YOLO-Series] 怎么将这个项目与RealSense深度相机结合起来? (Issue #120) 我希望能够通过RealSense深度相机实现实时的目标检测任务。应该在该项目上如何修改呢? —Reply to this email directly, view it on GitHub, or unsubscribe.You are receiving this because you are subscribed...
> > 输入的图像直接用real sence的api取就行了,哪一款相机呢 ---- 回复的原邮件 _**@**_._**>发送日期2024年03月02日 11:28 _**@**_.**_> _**@**_._**>主题[Linaom1214/TensorRT-For-YOLO-Series] 怎么将这个项目与RealSense深度相机结合起来? (Issue #120) 我希望能够通过RealSense深度相机实现实时的目标检测任务。应该在该项目上如何修改呢? —Reply to this email directly, view it on GitHub, or unsubscribe.You are receiving this because you...
> 请问一下为什么yolov8 end2end的推理,warmup和没有warmup时间相差这么多吗?没有warmup大概700ms,有warmup只有6ms,Infer函数不都是执行的图片放入gpu,然后推理结果从gpu放到内存吗?难道是warmup之后,图片不需要从内存到gpu了吗? 另外,如果我是处理视频,需要实时从视频帧读取到gpu,这应该是没办法用warmup吧?这应该怎么处理? 模型load以后 可以warmup, 使用空数据infer几次 然后 业务流来了以后直接推理
@QzYER @YachaoDong recommend >= 8.4
> > @QzYER @YachaoDong recommend >= 8.4 > > 大佬,项目不错,请问有没有c++ 推理视频流得呢?拉流和推流的。 目前还没有,大佬有方案的话可以pr
> 您好,作者,我使用环境为ubuntu18.04 cuda10.2 cudnn8.1.1 tensorrt7.2.3.4,在使用nrom/yolo.cpp 推理时,使用官方v8s模型,转换tensorrt 模型,推理后的图片出现乱框情况,是否可以给个解答呢  提供一下您导出的命令