ChatGLM2-6B icon indicating copy to clipboard operation
ChatGLM2-6B copied to clipboard

[Help] <ChatGLM2-6B 模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存,显卡可以使用 英伟达(NVIDIA) Tesla P40 吗>

Open zuoyangs opened this issue 1 year ago • 2 comments

Is there an existing issue for this?

  • [X] I have searched the existing issues

Current Behavior

ChatGLM2-6B 模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存,显卡可以使用 英伟达(NVIDIA) Tesla P40 吗

Expected Behavior

No response

Steps To Reproduce

ChatGLM2-6B 模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存。显卡可以使用 英伟达(NVIDIA) Tesla P40 吗

Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :

Anything else?

No response

zuoyangs avatar Jun 30 '23 05:06 zuoyangs

我用的是 NVIDIA Corporation GP102GL [Tesla P40],24G显存的P40没问题。注意一下要先加载到内存再放到显卡,内存别爆就可以

TJJ120635 avatar Jun 30 '23 06:06 TJJ120635

我的M40都可以,你的P40就更可以的,速度杠杠的。

mikestut avatar Jul 01 '23 10:07 mikestut