Bendy

Results 4 comments of Bendy

> > 非常感谢您的工作。 我貌似没有找到internvl3.5的fine tune脚本,(可以找到internvl3的fine tune脚本),请问如果我需要fine tune3.5,应该在哪查看呢 > > 在internvl_chat_gpt_oss/shell/internvl3_5_qwen3 请问一下:nternvl_chat_gpt_oss/shell/internvl3_5_qwen3 和nternvl_chat_gpt_oss/shell/internvl3_5_gpt_oss这两个里面的脚本有什么区别呢?

> maybe `--mm-processor-cache-gb 0 --no-enable-prefix-caching` helps. Ok, Thank you! I have tried it. If I want to run inference on multi-turn datasets, what additional parameters should I add?

> [@feiji111](https://github.com/feiji111) 通过 extra_body 传递的 mm_processor_kwargs 最终会传递给 hf 的 processor,可以传递的参数有很多,fps 只是其中的一个,你可以试试,全部参数看下这里: https://github.com/huggingface/transformers/blob/9aab965b1e61d92d402809bd467c317ec464e560/src/transformers/models/qwen3_vl/video_processing_qwen3_vl.py#L99 > > max_pixels、min_pixels 现在在 hf 中用 longest_edge 和 shortest_edge 表示了。 https://www.modelscope.cn/models/Qwen/Qwen3-VL-2B-Thinking/file/view/master/video_preprocessor_config.json?status=1#L2 May I ask where I can find...

> > 请问您这边微调8B模型所需要的显存为多大? > > 八卡机h20,跑zero2时,单卡占用 `52171MiB / 97871MiB` 啊我也是请问解决了吗😭