L&C

Results 7 comments of L&C

> @1461521844lijin 大佬,你还有docker吗,如果有的话可以私信我一下吗? 这个issus已经很久了,你也遇到过同样的问题吗? 当时的环境是在一个国产麒麟系统上的docker中环境会失败,在其他系统上docker中是正常运行的,因此怀疑是国产系统内核的问题,如果你的程序不是部署在国产系统上应该不用担心这个问题

可以的,修改输入节点的逻辑进行抽帧就可以了;不过还要显示推流输出的话就需要修改对应的输出参数的帧率了

> > 可以的,修改输入节点的逻辑进行抽帧就可以了;不过还要显示推流输出的话就需要修改对应的输出参数的帧率了 > > 我在m_decoder->send(pkt); 前添加跳帧逻辑,发现跳30帧分析一次,和跳150帧分析一次,显存的占用差不多的,同时解码的路数并没有变多(不考虑编码推流的情况,单纯解码)。是我添加的位置不对吗? 你在使用硬件解码吗? 一般来说硬件解码器和trt推理模型占用的显存都是初始化时预分配好的,跟分析输入频率无关,和硬件解码器数量和模型推理实例数量有关;这个项目中的数据拷贝(内存到显存)使用了显存池,也是降循环利用固定显存空间的; 因此跳帧并不会减少显存开销,只会减少输入频率,减少GPU利用率(你可以看自己的资源利用率),所以理论上可以通过跳帧来增加分析路数。 其次,在解码前丢帧的做法是不正确的,这可能会导致解码失败,建议进行I帧判断只解码I帧或者在视频解码后再进行抽帧处理

> 希望能有多级推理的案例 你指的是多个模型的串行调用吗 再写一个推理节点接上整个pipeline去就好了 如果我后面有空倒是可以多写一些例子出来

> 还有可视化管道功能,方便调试 这个功能以后也不计划支持,比较麻烦; 想要这个功能推荐用video_pipe_c 性能调试可以输出日志

可以的 这个需求我这个项目可以覆盖

> > 可以的 这个需求我这个项目可以覆盖 > > 好的,谢谢您的解答。发现输入流路径input_stream_url是个字符串类型,如果我要实现多路的话,请问是多创建几个pipline吗,然后每个pipline输入不同的流地址是吗?谢谢! 是的,创建不同的pipeline,每个pipeline就是一路流,吧你实例化的模型传入pipeline作为参数即可