Langchain-Chatchat
Langchain-Chatchat copied to clipboard
如何改成多卡推理?
+1
可以考虑参考chatglm-6b项目的issue中关于使用accelerate进行多卡推理的内容
qianchen94 @.***>于2023年4月14日 周五11:30写道:
+1
— Reply to this email directly, view it on GitHub https://github.com/imClumsyPanda/langchain-ChatGLM/issues/77#issuecomment-1507878465, or unsubscribe https://github.com/notifications/unsubscribe-auth/ABLH5EWM2LKEOHJMQ4MO7EDXBDAG5ANCNFSM6AAAAAAW4YG4HM . You are receiving this because you are subscribed to this thread.Message ID: @.***>
改成单机多卡推理,AutoModel里加上device_map='auto'之后会报错:tensor不在同一个device上,但是sentencetransformers里读的embeddings和langchain UnstructedFileLoader好像(暂时)都没法multigpu……所以根本不能在一个device?
你好,你最后有实现多卡推理吗?我是一台机器有4个3080,一个卡有点不ok,想4个卡一起推理。
项目里面默认检测卡数,所以一个会分配到不同卡上
webui.py 运行后只有GPU 0占用显存多,其他卡显存不够,应该怎么配置啊
由于该issue长期不活跃,开发组将其关闭,可以在最新代码上重新尝试。如果有需求可以重新提起
如果支持多卡的话 很多卡可以盘活