ZhangZhikang
ZhangZhikang
> 你好, > > 参见[#739](https://github.com/OpenGVLab/InternVL/issues/739)。 i know,But I finetune the model and I want to test the MMMU test accuracy of InternVL2.5 under CoT. I don't find this file. 
> The same situation also occurs in InterVL2.5_8B. May I ask if you have solved this problem?
请问现在还无法进行重建,是吗?我目前还未找到相关文件
> ### 描述该功能 > 1.现在mmpretrain还未能实现MIM学习的可视化重建功能吗?(就如同mmselfsup中的Reconstruction_visualize工具) 2.后续会补充此功能吗? 3.现在使用mask image modeling预训练的文件可否在mmselfsup环境中进行可视化重建? > > ### 是否希望自己实现该功能? > * [ ] 我希望自己来实现这一功能,并向 MMPreTrain 贡献代码! 你好,请问你是否实现了问题3? 可否交流一下
我测试MMMU时,精度下降,请问是测评的时候需要调整代码的哪些地方吗? CUDA_VISIBLE_DEVICES=0,1,2 python run.py --model InternVL2_5-38B --data MMMU_DEV_VAL --verbose CUDA_VISIBLE_DEVICES=0,1,2 USE_COT="1" python run.py --model InternVL2_5-38B --data MMMU_DEV_VAL --verbose
> 请把system prompt设置成`你是书生·万象,英文名是InternVL,是由上海人工智能实验室、清华大学及多家合作单位联合开发的多模态大语言模型。`来关闭think模式 我测试了一下情况确实好转,但是仍然有部分回复是think模式输出