Zhengxiao Du

Results 163 comments of Zhengxiao Du

可以直接使用量化后的模型`THUDM/chatglm-6b-int4`

> > [#6 (comment)](https://github.com/THUDM/ChatGLM-6B/issues/6#issuecomment-1474260291) > > `int64` is supported on MacOS 13.3 Βeta, and you should also use the nightly build of pytorch. > > I tried to use mps...

多机多卡不适合通常的inference场景,因为多机之间的通信带宽通常无法满足延时要求,所以不会支持

> > 我也遇到了同样的问题 cli_demo web_demo 没问题 也能吃上gpu 跑 train就报这错 3090 24G显卡 windows环境 pytorch==2.0.0 > > 我也是一样的问题,cuda版本11.2 pytorch==1.13.1 你试一下安装 [cudatoolkit](https://developer.nvidia.com/cuda-toolkit) 呢

应该是内存不足,可以尝试使用INT4量化的模型 https://huggingface.co/THUDM/chatglm-6b-int4

把`CUDA_VISIBLE_DEVICES`改成你要用的显卡列表

> > > > 我改成CUDA_VISIBLE_DEVICES=0,1之后,会卡死等很久,然后自动中断 我刚刚测试可以跑。你可以把具体的信息发出来看一下有没有遇到类似的问题的