Linly
Linly copied to clipboard
如何在A100 40G上多卡部署 Chinese-LLaMA-33B?
希望在A100 40G上部署 Chinese-LLaMA-33B,进行推理,单张卡的显存不够。如何进行多卡部署,如2张卡进行推理?能否提供示例代码?非常感谢!
可以在 llama_infer 中指定 world_size 参数来使用多卡
可以在 llama_infer 中指定 world_size 参数来使用多卡
非常感谢!