sdreamforchen

Results 30 comments of sdreamforchen

> 主页上的结果是未量化的结果 https://github.com/meituan/YOLOv6 量化的结果后续会更新在这里:https://github.com/meituan/YOLOv6/tree/main/tools/partial_quantization 您好,你们后续会进行剪枝优化吗? 感觉V6剪枝应该效果还可以。

请问eval的时候是重参后的架构吗

你用的paddle还是作者这个版本呢?

> 其实从这个精度看。没有达到yolox的精度。我记得yolox也是从0开始训练的,没有预训练 > 通过git上给的命令,我在COCO上训练PPYOLOE-s到300epoch mAP大约38.5%, 到350为40.5%,无法达到43.1%,请问如何训练到paper中的精度。 从这个看,精度达不到yolox的精度。网上150epoch可以达到39.7,论文作者是300epoch40.5.可能与数据增强有点关系吧。下次我自己也试试增加数据增强。有机会大家相互分享一下经验、结果!谢谢

我发现这个问题不是支持的问题。采用官方repopt的指令进行量化,预训练权重也采用官网的。 但是报错为:TypeError: _output_padding() missing 1 required positional argument: 'num_spatial_dims' File "tools/train.py", line 116, in main trainer.calibrate(cfg) File "/home/chenailin/Code/YOLOv6/yolov6/core/engine.py", line 538, in calibrate ptq_calibrate(self.model, self.train_loader, cfg) File "/home/chenailin/Code/YOLOv6/tools/qat/qat_utils.py", line 58, in...

因为我的版本问题吗?前段时间多卡训练,发现官网用的是-m torch.distributed.launch ,实则tprch1.9后为-m torch.distributed.run

> 您好。意思是目前QARep不支持量化训练吗?

您好!很多应用场景其实N和Tiny级别的算法就够用了。大佬可否分享下,这两个级别的参数配置多少呢? 我自己的N级别的配置如下: ResNet: depth: 18 variant: d return_idx: [1, 2, 3] freeze_at: -1 freeze_norm: false norm_decay: 0. HybridEncoder: hidden_dim: 192 use_encoder_idx: [2] num_encoder_layers: 1 encoder_layer: name: TransformerLayer d_model: 192 nhead:...

> 感谢大佬回复! HGnet或者ResNet部分不需要调整吗? 我想获取传统yolo系列N和tiny级别的算法。 另外,因为目前训练COCO是用了预训练模型的,我理解,如果您能分享下训练object365的学习率等配置,是不是从0开始训练COCO也会更好

看见已经有了相关的代码。 正式发布什么时候呢