Jie-Huang
Jie-Huang
那不然呢!难道可以直接一次性成型么?每个零件打印好后,再组装起来就可以了。 ------------------ 原始邮件 ------------------ 发件人: ***@***.***>; 发送时间: 2022年8月22日(星期一) 下午4:34 收件人: ***@***.***>; 抄送: ***@***.***>; 主题: Re: [peng-zhihui/ElectronBot] 请问外型的材料是3D打印出来的吗,用的是什么材料呢,看上去不像是普通的材料呀 (Issue #17) 请问打印的话,是需要把每一个零件单独导出打印嘛? — Reply to this email directly, view it on GitHub, or unsubscribe....
嗯嗯,B导,我将ghostnetv2网络使用您给的voc数据训练了300个epoch,map0.5最好的一次才67.20%。远远低于其它主干网络的准确性。难受了,是我训练有问题还是网络不行哦,我是使用在线服务器训练的,300个epoch得用1天半30块钱左右。
> `pip install opencv-python-headless` > > It works for me in a conda env also sloved my issue, thanks.
I also meet this question. Could you have addressed this.
May be I can address this question. ```py parser.add_argument('--image', default=None, type=str, help='A path to an image to use for display.') ``` To set like about, may be to work.
找到原因了,在dataloader 的最后一个函数yolo_dataset_collate里面,需要将传进来的参数使用enumerate去建立一个索引,之后再把bboxes的数据根据索引全部放入bboxes里面去。 附上代码: ```` shell def yolo_dataset_collate(batch): images = [] bboxes = [] for i, (img, box) in enumerate(batch): images.append(img) box[:, 0] = i bboxes.append(box) images = torch.from_numpy(np.array(images)).type(torch.FloatTensor) bboxes =...
这是 yolov4 中的加载images 和bboxes的代码,我将yolov4 中的损失换成了yolov7的损失格式,罪魁祸首就是这里出了问题,当然还需要改动其它地方。 附上yolov4 中的 yolo_dataset_collate 代码: ```shell def yolo_dataset_collate(batch): images = [] bboxes = [] for img, box in batch: images.append(img) bboxes.append(box) images = torch.from_numpy(np.array(images)).type(torch.FloatTensor) bboxes =...
总结一下,这里关键还是拼接的问题。刚刚又去研究了一下,发现根本问题是yolov4的targets拼接到一起,附上代码加以区分: ```shell # yolov7 中的代码 bboxes = torch.from_numpy(np.concatenate(bboxes, 0)).type(torch.FloatTensor) # concatenate拼接某维度的参数 # yolov4 中的代码 bboxes = [torch.from_numpy(ann).type(torch.FloatTensor) for ann in bboxes] # 直接循环赋值给了ann,还是两个列表的形式 ```