Linxi
Linxi
从vgg16开始,重新训练的模型,在ICDAR2015上只有81,和作者的结果大概差一个点,inference用的是训练了600个epoch的模型,是因为使用的模型不对吗。
添加了知乎看山杯和快手比赛
when I run `python run.py --arch ltp-base --task SST2 --restore pretrained/bert-base-uncased-SST-2 --lr 2e-5 --temperature 2e-3 --lambda_threshold 0.1 --weight_decay 0 --bs 64 --masking_mode soft --epoch 10 --save_step 100 --no_load` Some specified...
这是评测的脚本:torchrun --nproc-per-node=1 run.py --data MMMU_DEV_VAL --model llava_onevision_qwen2_0.5b_ov --verbose 评测下来的指标是: split validation dev Overall 0.3522222222222222 0.31333333333333335 Accounting 0.43333333333333335 0.0 Agriculture 0.36666666666666664 0.2 Architecture_and_Engineering 0.23333333333333334 0.2 Art 0.3333333333333333 0.0 Art_Theory 0.43333333333333335 0.6...
我测试了以下的模型的精度,模型精度和论文中宣称的不同。是我跑的有什么问题吗。 评测精度如下所示:  这是我评测脚本: * LLaVA-Video-7B-Qwen2, fps32: ```sh /opt/conda/envs/python3.10/bin/python -m accelerate.commands.launch --num_processes=8 \ -m lmms_eval \ --model llava_vid \ --model_args pretrained=/tmp/pre-trained/lmms-lab/LLaVA-Video-7B-Qwen2,conv_template=qwen_1_5,max_frames_num=32,mm_spatial_pool_mode=average \ --tasks videomme \ --batch_size 1 \ --log_samples \...
We have collated almost all the original data of paperswithcode, including 575,748 papers, 3,972 tasks, 11,745 leaderboards, and 241,943 implementations. We will open source the entire data and website code...