王亮亮
王亮亮
> Thanks. Have you got the pretrained model?
pip install imageio
5.31号之后,VOT比赛过后,会提供包括siamRPN以及当前最新算法的代码和模型 ---原始邮件--- 发件人: "csg1111" 发送时间: 2019年4月26日(星期五) 上午10:12 收件人: "makalo/Siamese-RPN-tensorflow"; 抄送: "Subscribed"; 主题: [makalo/Siamese-RPN-tensorflow] 与训练模型 (#13) 作者可以提供一下训练好的模型吗 — You are receiving this because you are subscribed to this thread. Reply to...
youtube-bb大概500G 按照论文的说法去训练,效果loss再高位震荡,不下降。只有自己训练。
Can't support multi dataset training yet. I see "names: ["GOT10kDataset",] in the configuration file, but an error will be reported when I use ["GOT10kDataset","LaSOTDataset"].
This may be the problem of GCC version. You can try gcc-5. For this kind of environmental problem, everyone's environment is different. I don't know what your environment is like,...
test的代码没运行,可能有一些bug,当时只是运行了train的,这段时间一直在做其他项目,没时间改test的部分。过了这段时间再把完整的代码和模型push上去
这个我是按照论文描述的来写的,你有什么见解吗?可以交流一下 ------------------ 原始邮件 ------------------ 发件人: "xujiao3628"; 发送时间: 2019年4月26日(星期五) 下午5:28 收件人: "makalo/CornerNet"; 抄送: "Subscribed"; 主题: [makalo/CornerNet] pool梯度的反向传播,逻辑是不是理解错了,感觉和原版的不太一样 (#14) — You are receiving this because you are subscribed to this thread. Reply...
mask为1的地方,就是最大索引的地方。不过确实只是计算了最大值的那个位置上的梯度,没有把非最大值部分叠加到最大值部分上去。这个地方要把非最大值部分的梯度叠加到最大值位置去,后面还要改一下。多谢指教,如不介意,微信交流wl1647855685 ------------------ 原始邮件 ------------------ 发件人: "xujiao3628"; 发送时间: 2019年5月5日(星期天) 下午3:22 收件人: "makalo/CornerNet"; 抄送: "Makalo"; "Comment"; 主题: Re: [makalo/CornerNet] pool梯度的反向传播,逻辑是不是理解错了,感觉和原版的不太一样 (#14) 我看的pytorch源码实现,反向传播的时候,梯度的值需要散落(scatter)到输入最大值的索引位置(和前向的逻辑一致),这样散落之后,梯度的值只会传播到有限的几个位置,并且会叠加(因为最大值只有有限几个)。而你的实现,是直接计算了梯度的一个mask,梯度原位传播(没有传播到索引最大位置) 其实原理和max pool有一点类似,即梯度传递到输入最大值的位置 — You are receiving this because you commented....
I use eight TITAN-v to train. Loss can be reduced to 0.5. I provide single card and multi-card training in my code, but I haven't trained with single card, maybe...