chatglm.cpp icon indicating copy to clipboard operation
chatglm.cpp copied to clipboard

使用 gpu 时 如何指定使用哪一个设备?

Open WallenHan opened this issue 1 year ago • 4 comments

  1. 使用 gpu 时 如何指定使用哪一个设备? 文档中没有指定说明。是否支持默认 torch 的配置参数
  2. 是否支持 多卡 指定权重分割模型,运行。

WallenHan avatar Nov 29 '23 09:11 WallenHan

可以设置环境变量CUDA_VISIBLE_DEVICES

yansh97 avatar Nov 29 '23 13:11 yansh97

感谢,按照 torch 的配置成功,建议可以把支持 torch 的参数配置这一项写出来。

WallenHan avatar Dec 07 '23 11:12 WallenHan

求问大佬,我用了量化后的chatGLM3模型,编译也没报错,但是推理一直在CPU进行,GPU没用到,在编译时已经写了-DGGML_CUBLAS=ON。 详细的写在-DGGML_CUBLAS=ON,编译成功之后无法使用显卡进行推理,仍然使用CPU进行推理 #241
大佬能帮忙看看怎么回事么?

wfgods avatar Dec 30 '23 21:12 wfgods

你好,我遇到了同样的问题,可否详细问下最后怎么实现的

XiaoYangWu avatar Sep 11 '24 06:09 XiaoYangWu