Bhchen

Results 65 comments of Bhchen

@yarkable 这个是中间过程的代码,没有整理和保存 -_-

@Skyninth 是对分类分支做的 不是对FPN的输出做的

@weyoung0 感谢对我们工作的支持~ 关于半监督性能这里,我有一些个人的看法哈 1) 数据集的人为标注如果存在一些噪声,或者不准地情况,那全监督实际地结果可能会更高一些。 2) 对于iteration次数来说,可能采用semi的时候 整体的训练iter次数要比全监督多一些?这可能也会使得半监督地性能会提高一些。 3) 另外我们加入了Lscale,无形中对于scale地invariance进行了约束,因为检测上对于scale地感知还是比较重要的,而全监督是没有这个Lscale地 所以这是否也可能是一个影响效果地原因呢 4) 此外,半监督在打伪标签的时候,随着训练的进行,伪标签的框肯定会变化,相当于对于同一个物体,网络会得到基于莫格大致位置的相对变化的标签,而这个是否也是种正则项,防止过拟合训练数据呢。(我在实际项目中,用到bbox的随机扰动,发现是有性能涨点的,所以猜测一定程度的伪标签的变化,可能也有益处) 5)当然从理论上来说如果一切标注都完美,外界条件也差不多,那理论上100%地标注是会好于50%的。

@weyoung0 1. 应该是的 3. 可能有影响,毕竟focalloss的参数是采用默认的,如果增多正样本个数,我猜测是有帮助的。 4. 有可能的 但是对于性能的上限,我觉得可能是有upperbound的,而这个上限可能就是原始GT标注采用框的增强得到的结果?

@simo23 Hi To your questions: 1. I use VGG19 pretrainted on imagenet 2. I fine-tune the VGG19 model on CUB with 448x448 3. When fine-tune with 448 I change the...

@super-wcg I froze the apn nets, randomly initialized 4 classification layers for 3 scales and a fusion scale, then fine-tune the model based on given one with 1e-4 learning rate,...

@jens25 I have some questions. (1)What's your final results? Does it close to 85%? (2)As shown in your prototxt, the final classifier for each scale is a 100-class classifier? While...

@chenfeima If you only test it with the given model, It actually will be 85%. And if you fine-tune it (only fine-tune the classifier layers), you will get 83% and...

> hi, i run your code using CUB200 dataset, but i can't reappear result of recall@1(0.575). Can you give me more detail about configure of parameters, likely training batch size,...

@kebinC First, in line424 of train_bier.py, the axis should be 1, not 0. Have you implemented the baseline results? If you achieve similar baseline results, then you can try `activation',...