cywjava

Results 91 comments of cywjava

https://github.com/chenyiwan/chatglm-6b-fine-tuning 看这里

> 遗忘,多半是你的优化器和学习率的问题

> 我也遇到了同样的报错: Expected all tensors to be on the same device, but found at least two devices... > ## 训练采用2张、四张都可以。 我已经解决了,图,是使用GPU0 和 1 训练, 7做生成文本。 ![image](https://user-images.githubusercontent.com/56297473/229975256-4f063493-5543-43a5-a8e7-d72c19a26fb0.png) 使用4卡训练,也没有问题 ![image](https://user-images.githubusercontent.com/56297473/229976405-6f4db387-81d0-47e2-8487-93cb2208e7c9.png) 直达===> https://github.com/chenyiwan/chatglm-6b-fine-tuning

> > @xiaoweiweixiao 微调不行,你在一张卡上微调完,在部署到多卡。或者你自己写训练代码,中间把对Tensor操作时都放到同一device再操作 > > 哦哦,原来这只能用在部署上呀,”中间把对Tensor操作时都放到同一device再操作“这个能降低对单卡显存的要求吗?大佬考不考虑出个分布式训练的代码呀 O.O 不是的,训练也可以多卡的啊

i have error is: torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 288.00 MiB (GPU 0; 23.70 GiB total capacity; 7.89 GiB already allocated; 39.19 MiB free; 7.89 GiB reserved...

同问pkl 格式是啥样的?