Zhaorun Wu
Zhaorun Wu
I found a solution. I set the norm_method to "std" before and changed it to "whole_image". I would like to ask what is the difference between the two.
i met the same problem,have you solved it?
roi = np.concatenate((roi.detach().cpu().numpy(), bbox), axis=0) 为什么要把roi和bbox拼接起来呢
这里我也有疑问,我看网上常见的说法是,9个anchor和真实框计算iou,选择iou最大的作为正样本,其他anchor如果iou大于阈值则忽略。而作者的代码是选择iou最大的作为正样本,然后对预测框解码,如果预测框与真实框iou大于阈值,则忽略。 不知道这两种的训练结果差别大吗
> 后者,前者应该不对,效果应该不阿红 谢谢up主
> 我尝试将May输入3D人脸重建模块的[test.py](https://github.com/yerfor/GeneFace/blob/main/deep_3drecon/test.py)(先检测5个人脸关键点),得到的可视化结果有更明显的忽大忽小效果。不知这里是不是这个问题的根源? 请问可视化怎么做?是运行deep_3drecon/test.py 吗,参数怎么写呢?
请问你复现了吗?我也需要DAFormer + CLUDA的代码
Yes, I want to use ```RelPositionMultiHeadedAttention``` for cross-attention, where the query and key have different lengths