日月归心

Results 24 comments of 日月归心

> 1. Windows机器的资源很可能比jetson充足; > 2. trt做了更多优化,通常需要占用比paddle更多的内存资源。 > > 综上来看,还是比较可能是我说的原因。建议关注trt的优化参数。 按理来说ppyoloe_plus_crn_t_auxhead_320_300e_coco这个超轻量级的模型应该会比ppyoloe_plus_crn_s_80e_coco这个模型跑的更快,但是7路视频同时处理下来还更慢了,运行命令如下python pipeline/pipeline_c2.py --config pipeline/config/infer_cfg_2.yml --device=gpu --do_break_in_counting --region_type=custom --illegal_parking_time=1 --video_file=resource/video-10min/r10.mp4 --run_mode trt_int8 --trt_calib_mode True ,并没有生成校准文件

> > > 1. Windows机器的资源很可能比jetson充足; > > > 2. trt做了更多优化,通常需要占用比paddle更多的内存资源。 > > > > > > 综上来看,还是比较可能是我说的原因。建议关注trt的优化参数。 > > > > > > 建议关注trt的优化参数,什么意思,我还用了一个ppyoloe_plus_crn_t_auxhead_320_300e_coco这个模型相比与ppyoloe_plus_crn_s_80e_coco这个模型在int8下检测耗时没有什么太大的区别 > > 请问trt_min_shape、trt_opt_shape、trt_max_shape这几个参数是如何设置的呀? 1,640,1280

> 3个都设置的是这个值吗?另外,每个模型都是这样设置的嘛? if run_mode in precision_map.keys(): config.enable_tensorrt_engine( workspace_size=1

> > 3个都设置的是这个值吗?另外,每个模型都是这样设置的嘛? > > ``` > if run_mode in precision_map.keys(): > config.enable_tensorrt_engine( > workspace_size=1 max_batch_size=batch_size, > min_subgraph_size=min_subgraph_size, > precision_mode=precision_map[run_mode], > use_static=True, > use_calib_mode=trt_calib_mode) > config.set_optim_cache_dir("./tensorrt_cache") > if use_dynamic_shape: >...

> 3个都设置的是这个值吗?另外,每个模型都是这样设置的嘛? 都是使用的默认的, trt_min_shape=1, trt_max_shape=1280, trt_opt_shape=640,

> 看起来确实比较奇怪~请问方便分别提供一下轻量级和超轻量级模型的执行日志吗? config.disable_glog_info() 预测时的日志吗

> 看起来确实比较奇怪~请问方便分别提供一下轻量级和超轻量级模型的执行日志吗? --- Running PIR pass [add_shadow_output_after_dead_parameter_pass] I0428 02:49:58.460706 57741 print_statistics.cc:50] --- detected [8] subgraphs! --- Running PIR pass [delete_quant_dequant_linear_op_pass] --- Running PIR pass [delete_weight_dequant_linear_op_pass] --- Running PIR pass [map_op_to_another_pass]...

> 看起来确实比较奇怪~请问方便分别提供一下轻量级和超轻量级模型的执行日志吗? 分配的线程太少会不会影响模型处理速度,现在是默认初始化分配的是200M

> 看起来确实比较奇怪~请问方便分别提供一下轻量级和超轻量级模型的执行日志吗? trt=True 就是这个参数导出模型时带上这个参数,导出后的模型预测时会比不带那个参数导出的还要慢,我不使用这个参数导出的模型预测耗时35ms左右,使用了那个参数耗时60ms左右

> 看起来好像没有真正启用trt……请问有修改代码不? 导出模型的代码还是pipeline中的代码