XiamuSanhua
XiamuSanhua
显存溢出
想问下按照您的方式进行训练,一张3090ti使用yolox-m的模型在batchsize为1时为什么显存在6000-19000来回横跳,使用bs=2时,显存就会溢出
sim_map = torch.bmm(query_local, key_local) # batch matrix multiplication RuntimeError: CUDA out of memory. Tried to allocate 64.00 GiB (GPU 0; 23.69 GiB total capacity; 554.08 MiB already allocated; 21.34 GiB...
训练结果
在got10k,tiny训练时,使用RTX3090,BS(32)进行训练时,在30个epoch的时候已经达到了68的准确率,在训练就发生了过拟合,这正常吗。我看作者的论文是训练了300个epoch,210时学习率衰减。。。
显卡问题
你好,我想问一下在使用4GB的显存下,batchsize只能是2吗。还是我的设置有问题呢,当batchsize为4的时候会爆显存吗
学长好,我想问一下matcher.py里是怎么计算box的,为什么要乘上num_queries开方后的数据 bs, num_queries = outputs["pred_logits"].shape[:2] for i in range(bs): cx, cy, w, h = targets[i]['boxes'][0] cx = cx.item(); cy = cy.item(); w = w.item(); h = h.item() xmin = cx-w/2;...
想问下按照博主您的方式进行训练,一张3090ti使用yolox-m的模型在batchsize为1时为什么显存在6000-19000来回横跳,使用bs=2时,显存就会溢出
手机端可用吗