tensorRT_Pro
tensorRT_Pro copied to clipboard
C++ library based on tensorrt integration
我之前设置了trtpy set-key sxaivip 安装了trt get-env 之后在查看就报错,请问该怎么设置 Download failed: http://zifuture.com:1556/fs/sxaivip .txt Traceback (most recent call last): File "/root/miniconda3/envs/TensorRT/lib/python3.7/runpy.py", line 193, in _run_module_as_main "__main__", mod_spec) File "/root/miniconda3/envs/TensorRT/lib/python3.7/runpy.py", line 85, in _run_code exec(code,...
我想要获取轨迹,使用std::vector trace_line();获取出来的数据长度总是1,没法获取到运动轨迹。这个函数是获取轨迹的吗?
老师,您好,在windows10 x64 转换 hswish.plugin.onnx 模型转换时会异常,无法解析onnx 文件,creator 指针一直为空,请问有遇到过这种问题吗,或者可能的原因是什么?谢谢 auto registry = getPluginRegistry(); auto creator = registry->getPluginCreator(name.c_str(), "1", ""); if(creator == nullptr){ printf("%s plugin was not found in the plugin registry!", name.c_str());...
set_mat是常用的输入函数,但有没有直接以std::vector作为输入的函数
您好,您的TensorRT开源项目中对TensorRT的封装我觉得对新手十分友好,上手非常简单,但是我还是有些疑问。我用TRT::infer加载其他任务如深度估计,语义分割的float32或者float16engine文件。我在推理结果保存成二进制文件后再python中再加载结果进可视化后发现推理出来的结果是错的。我onnx转engine使用trtexec转的。主要使用到的代码如下: ``` infer->input(0)->set_mat(0,img); infer1->forward(); auto out = infer1->output(0); infer1->output(0)->save_to_file(sttr); ``` onnx转trt是直接用的 ``` trtexec --onnx=XXXX --saveEngine=XXXX ``` 请问TRT::infer是不是不适用于其他模型的推理呢?
按照https://www.zhihu.com/people/shouxieai, pip install trtpy-dev==1.1.20 -i https://pypi.org/simple 2. 配置便捷指令,使用source的aliasecho alias trtpy=\"python -m trtpy\" >> ~/.bashrc source ~/.bashrc 3. 查看trtpy当前的信息,仅仅证明安装运行成功trtpy info 4. 查看当前支持的模版清单trtpy list-templ 报错: raise RuntimeError(f"Can not read key file, please...
老师您好,HighPerformance.hpp这个高性能和项目里其他正常的实现,主要有什么区别呀?谢谢! 另外在app_high_performance.cpp#L83 调用 connect(pose, output); 是不是写的有点问题,输入的参数顺序反了?pose是输入,output是输出。 void connect(Node& output, Node& input, int max_cache=30); 引用自 https://github.com/shouxieai/tensorRT_Pro/blob/f24e4921e23e71d16771ab7d4df601f71da7dac2/src/application/app_high_performance/high_performance.hpp#L141
可能需要多显卡运行,模型1在显卡1上运行,模型2在显卡2上运行。 模型1: 模型转换的时候SimpleYolo::set_device(0),推理的时候commit(_ImgSrc).get();也进行了SimpleYolo::set_device(0),运行正常, 但是模型2要在显卡2上运行时: 模型转换的时候SimpleYolo::set_device:1),推理的时候commit(_ImgSrc).get();也进行了SimpleYolo::set_device(1),崩溃。