sucessfully graduated
sucessfully graduated
作者您好,当我从给定链接下载权重并进行加载的时候,显示` Expected state_dict to be dict-like, got .` 请问这种情况该怎么解决呢,谢谢
修改配置文件
您好,当我把配置文件中的to_float32修改为True的时候,模型会报错,但是如果不修改这个地方当训练的时候进行验证会出现` expected scalar type Float but found Half`的错误,请问这个可以修改吗
作者您好: # Efficient implementation equivalent to the following: attn_mask = torch.ones(L, S, dtype=torch.bool).tril(diagonal=0) if is_causal else attn_mask attn_mask = attn_mask.masked_fill(not attn_mask, -float('inf')) if attn_mask.dtype==torch.bool else attn_mask attn_weight = torch.softmax((Q @...
生成pkl文件
您好,请问在生成pkl文件的时候nuscenes_infos_train.pkl是用PETR的代码还是StreamPETR的代码生成的呢。 我下载了网盘上的链接,发现mini版本使用的是PETR,trainval使用的是StreamPETR不知道理解的对不对 两者主要的区别在于gt_boxes gt_boxes = np.concatenate([locs, dims, -rots - np.pi / 2], axis=1) gt_boxes = np.concatenate([locs, dims[:, [1, 0, 2]], rots], axis=1) 请问是上述的哪一个gt_boxes
 您好,我在看论文的时候发现Propagation Transformer的交叉注意力中使用了两个图像特征,分别是来自t-1时刻和t时刻的图像特征,但是我在阅读源码的时候并没有发现t-1时刻的特征从哪里来的(或者是t时刻的特征),在Transformer中只是用了一个6层的解码器,并没有使用两个6层的解码器。请问是我哪里理解错了吗
请问在第228个循环上一直出现这个报错是为什么,打印两者的形式都是np.array
Thanks for your error report and we appreciate it a lot. **Checklist** 1. I have searched related issues but cannot get the expected help. 2. The bug has not been...