1SingleFeng
1SingleFeng
> @todaydeath 了解了,那就不清楚了,我目前还没有涉及到这些方面 后续如果我有进展的话会再告知你
> > > > > > > > > > https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6!...
@qyc-98 I have encountered the same problem. Have you resolved it
您好,您说的是哪个群,请问能分享一下吗
> @1SingleFeng 你好,我根据pr修改了两个文件的代码出现了新的报错信息:  > > 这似乎是模型的张量处理的问题,请问是哪里的问题呢 你好,我暂时用不上minicpmv-2,所以对这些问题不太了解
请问你知道minicpm-llama3-v-2_5(int4)是使用哪种方式量化得到的吗
> > 请问你知道minicpm-llama3-v-2_5(int4)是使用哪种方式量化得到的吗 > > BnB 请问是指 BitsAndBytes 吗
请问你使用了多少资源进行全参数微调,我使用2张v100和4张v100均不行
请问这个问题解决了吗,我也遇到了这个问题
> 你好,是chat模型(chatglm-6B),我们是一个早期的尝试工作,现在已经有很多更强大的语言模型了,例如glm4-9B等 好的,非常感谢,请问有最近的研究成果吗,能学习一下吗