Results 130 comments of Mr.Fire

这就尴尬了,这不是打官方脸嘛

数据增强里有padding https://github.com/fire717/hualubei2020-callingsmoking/blob/0d0f804cef38bea45a7063190f17d031008bf9c9/libs/data.py#L57-L64

假如你输入的是1000x2000的图 不先按最大边等比缩放到300x600再padding 你怎么直接padding到600x600? 这些问题你把每一步图片保存下来看看就知道了

Update (January 23, 2020) This update adds a new category of pre-trained model based on adversarial training, called advprop. It is important to note that the preprocessing required for the...

在对抗样本中一些比较细微的甚至像素级的改动都会导致模型出错,因此对抗学习可以提升模型的泛化性,也使得模型训练出来更关注全局特征而不是某一些细节。而模糊图片可能就是会丢失很多细节。 当然这只是个人的一些理解,不一定对。主要还是尝试了发现实验结果的确能够提升,因此最终采用了。

不是的,在对抗样本中一些比较细微的甚至像素级的改动都会导致模型出错, 因此使用对抗学习降低这种对抗样本导致的错误, 因此会让模型对图像区域变化更加不敏感, 从而泛化能力更强。

https://github.com/JackeyGuo/pytorch-classification-models/issues/1

半精度应该不会掉点,这个当时没有尝试,后面其它项目做了。uint8尝试过Post-Training Quantization,文章提到了,掉点严重,因为本身就是小网络,而且任务比较敏感。使用Quantization Aware Training来进行量化应该会好一些,官方的tflite应该也是这样,只是当时PyTorch貌似不支持QAT,也就没有做了。

我当时复现的时候好像还没有multipose,后面也没有关注了。 大概看了下hub的说明 `Outputs A float32 tensor of shape [1, 6, 56]. The first dimension is the batch dimension, which is always equal to 1. The second dimension corresponds to the...

Yes u can just load pretrained model in train.py and use my custom dataset. And the pretrained model is 17 keypoints, ur data should be the same.