Jiajia Liao

Results 10 comments of Jiajia Liao

Can I use this code base (python -m pip install 'git+https://github.com/tahirashehzadi/Semi-Supervised-Floor-Plan-Detection.git') to replace the backbone with a one-stage one? @tahirashehzadi

请问,就这个问题有没有解决办法?

同问,我也出现这个问题,请问您解决了吗 @mjanddy

> > 请问这个是什么原因呢?是opencv-python的版本不对吗?我查了一下,其他人说把opencv-python改为4.5.1.48,但是这个方法也不行。 > > 请问作者,您的opencv-python版本是多少呢? > > 我这边使用的opencv-python版本是4.5.1,您升级一下再重新运行程序 好的,谢谢您!已运行成功~

Thank you for your work. When will the interactive code be released?

请问您解决了吗?? @Nioolek @poodarchu

Is there any other library for evaluating captions in other languages? @jontooy @ltp1995

hi, @kennymckormick , 感谢你的回复哈。还想咨询两个问题: 1. sciqa的数据量好像和官方的数据量对不齐(sciqa_test数据量是4241,而您提供的是2017)。是不是因为sciqa这部分只抽取了vlm的部分,纯文本的部分就去掉了。那如果想要使用vlmeval测试sciqa是需要执行两个库才能完成吗? 2. chartqa也有数据量不对齐的问题,我看chartqa_human的部分测试数量是1250,但是您提供的数量是2210。

> hi, @kennymckormick , 感谢你的回复哈。还想咨询两个问题: > > 1. sciqa的数据量好像和官方的数据量对不齐(sciqa_test数据量是4241,而您提供的是2017)。是不是因为sciqa这部分只抽取了vlm的部分,纯文本的部分就去掉了。那如果想要使用vlmeval测试sciqa是需要执行两个库才能完成吗? > 2. chartqa也有数据量不对齐的问题,我看chartqa_human的部分测试数量是1250,但是您提供的数量是2210。 针对第二个问题,chartqa这个数据集您包含了test共1250条数据,val共960条数据,所以数据量是2210。对于这个分数分数太低的问题,您可以在VLMEvalKit/vlmeval/utils/dataset.py中build_prompt添加这一串prompt,效果会得到一定的提升。(我看其他模型测试时也添加了这个提示) `elif DATASET_TYPE(dataset) == 'VQA': prompt += "\nAnswer the question using a single word or phrase."`