gpt_academic
gpt_academic copied to clipboard
[Feature]: 如何使用多个显卡以及Llama 13B 和70B的支持
Class | 类型
大语言模型
Feature Request | 功能请求
我直接从运行的docker镜像,但是发现chatglm 和llama2的模型都只运行在了一个gpu上,我的机器有4*A5000, 剩下的三个卡都是空着的。所以想问下本项目是否支持多卡并行,好让我把四个卡都用起来或者跑更大的模型。
是可以的,不过需要修改一些代码去改动 os.environ
是可以的,不过需要修改一些代码去改动 os.environ
我大概明白了,我自己试一下
是可以的,不过需要修改一些代码去改动 os.environ
我大概明白了,我自己试一下
您好,请问您解决了这个问题么?
是可以的,不过需要修改一些代码去改动 os.environ
我大概明白了,我自己试一下
您好,请问您解决了这个问题么?
已通过accelerate解决