wjp

Results 4 issues of wjp

阅读了Issues#79 :Custom dataset training和官方指南[official guide for custom dataset](https://detectron2.readthedocs.io/en/latest/tutorials/datasets.html#register-a-coco-format-dataset),对于将数据集格式转换为COCO格式之后,接下来:如何注册自己的数据集以及更改配置(如NUM_CLASSES)的完整流程依旧很模糊,请问能否给一下关于[SparseInst](https://github.com/hustvl/SparseInst)在自定义数据集上训练的详细流程或者示例?

目前需求,想要基于自定义数据集使用UNetPlusPlus完成实例分割任务,不知道该如何实现?期待您的回复!感谢!

比如:query文本为”耐克品牌的黑色的篮球鞋“ , 能否给"耐克品牌"、"黑色"以及”篮球鞋“设置不同的权重,使得检索出的结果是可变的符合不同用户搜索需求的。比如”耐克品牌的黑色的篮球鞋“ ,用户A希望是"耐克品牌的篮球鞋"即可,对品牌比较执念,检索出来的结果要是"耐克品牌的篮球鞋"排序在前,对颜色的需求弱化,;用户B希望是"黑色的篮球鞋"即可,对颜色比较执念,检索出来的结果要是"黑色的篮球鞋"靠前,对鞋子的品牌的需求弱化,想要实现这个需求的话,请问有什么好的建议吗?期待您的回复

利用Chinese-CLIP实现自定义数据集上的文到图搜索的功能(类似官方示例MUGE功能),目前遇到的问题是: 虽然可以根据余弦距离之间的相对大小所反应出的图文相似性的高低,来排序出相关度从高到低的检索结果,但是经过验证官方示例MUGE数据集(以及Issues#42 中也提到),以及我自己的自定义数据集中计算得到的图文相关性分数分布在0.3-0.48之间,如何处理才能使得最终呈现的相关性分数展示的更加合理呢?(相关性分数分布在0-1之间且能够有较高的梯次感和区分度) 目前尝试的方法有: 1.参考快速使用API中model.get_similarity的计算过程对余弦距离先乘上logit_scale.exp(),与快速使用API中保持一致logit_scale.exp()设为了100.03,然后在候选项之间做softmax得到概率分布。问题是和快速使用API示例中的"皮卡丘"文本不同的是,当候选项很多比如有一万多个,那么这个softmax计算得到的分数就非常的低,可能在e-5到e-12量级,虽然能够有较为准确的排序检索结果却没有得到合理的相关性得分。 2.参考Chinese-CLIP-master/cn_clips/eval/make_topk_predictions.py中 score_tuples = [] text_feat_tensor = torch.tensor([text_feat], dtype=torch.float).cuda() # [1, feature_dim] idx = 0 while idx < len(image_ids): img_feats_tensor = torch.from_numpy(image_feats_array[idx : min(idx + args.eval_batch_size,...