ObjectDetection-OneStageDet icon indicating copy to clipboard operation
ObjectDetection-OneStageDet copied to clipboard

单阶段通用目标检测器

Results 51 ObjectDetection-OneStageDet issues
Sort by recently updated
recently updated
newest added

yolov3用自己的数据集训练时,设置anchor时候需要尺度不变放缩到一个input_size然后聚类得到anchor吗?比如我都resize到640*640,然后kmeans聚类得anchor. 但实际上我debug时候发现源码训练里加入了random_input_size,那这样的话,上面设置的anchor_size就会出现不匹配的情况了(训练时候输入尺度是随机的).   所以应该用多尺度数据聚类anchor吗?

I saw the code " self.network_size = cur_cfg['input_shape'] ", but what's the meaning of network_size ? If I want to use larger image input_size , should I change the function...

`lb = vn_data.transform.Letterbox(hyper_params.network_size) it = tf.ToTensor() img_tf = vn_data.transform.Compose([lb, it]) s1 = time.time() data = img_tf(img).cuda() e1 = time.time() data = torch.unsqueeze(data, 0) print('preprocessing per img consume: {}'.format(e1 - s1))`...

我使用的yolov3-tiny的模型。使用了官网提供的初始化权重,width:height=416:416训练了自己的数据集50w次([net]中的参数都没有改)。使用final_weight测试的时候发现width:height=512:320的效果最好(分别尝试了416:416,512:256,512:320)。然后我从前面的训练模型中挑选第10w(随机选的)次作为我新的初始化权重,此时使用width:height=512:320来重新训练。我的这种思路对不对,如果可以的话这个时候我的学习率应该如何调,有没有什么方法可以优化我挑选的初始化权重。主要的目的是为了能快速的迭代

```python def randomCropLetterboxPil(img): output_w, output_h = (1408, 768) jitter = 0.3 fill_color = 127 orig_w, orig_h = img.size img_np = np.array(img) channels = img_np.shape[2] if len(img_np.shape) > 2 else 1...

googledrieve打错了,应为googledrive

当我的数据集只有一个类别时,模型不收敛?请问有遇到这个问题吗

I see Bag of Tricks for Image Classification with Convolutional Neural Networks, the paper suggest the BN initial method for zero gamma ![image](https://user-images.githubusercontent.com/7610009/60059250-4ab99480-971e-11e9-8558-3db0a9a80ed0.png) [the code](https://github.com/TencentYoutuResearch/ObjectDetection-OneStageDet/blob/master/yolo/vedanet/models/_lightnet.py#L137) initial the BN using one...