ChatGLM-6B icon indicating copy to clipboard operation
ChatGLM-6B copied to clipboard

可以使用国产的npu运行吗?比如昇腾的300v pro

Open wangyiyong opened this issue 1 year ago • 5 comments

Is your feature request related to a problem? Please describe.

可以使用国产的npu运行吗?比如昇腾的300v pro

Solutions

可以使用国产的npu运行吗?比如昇腾的300v pro

Additional context

可以使用国产的npu运行吗?比如昇腾的300v pro

wangyiyong avatar Apr 09 '23 16:04 wangyiyong

同求,有人尝试部署过吗

czas09 avatar Apr 10 '23 01:04 czas09

没有对应的硬件所以没法测试。理论上只要能运行pytorch,那么都可以运行非量化的模型(量化的模型有部分代码是用CUDA写的)

duzx16 avatar Apr 10 '23 10:04 duzx16

看到作者刚刚回复了,我想顺便问下为什么config里面的eos_token_id和tokenizer中的eos_token_id不一致了?

chouife avatar Apr 10 '23 10:04 chouife

看到作者刚刚回复了,我想顺便问下为什么config里面的eos_token_id和tokenizer中的eos_token_id不一致了?

这个问题已经修复了。另外,请不要在issue中提无关的问题。

duzx16 avatar Apr 12 '23 14:04 duzx16

npu +1 主要是npu的主机很便宜,看过都心动

aogg avatar Apr 19 '23 02:04 aogg

没有对应的硬件所以没法测试。理论上只要能运行pytorch,那么都可以运行非量化的模型(量化的模型有部分代码是用CUDA写的)

实测在国产化环境(飞腾2500 cpu)未量化模型输出正常,int4模型输出乱七八糟的内容。

不太理解如果量化部分代码是cuda写的,为什么x86+cpu正常,arm+cpu就不行?使用cpu时逻辑不是一样的吗。问题在quantization_kernels.c文件吗?

umbraclet16 avatar Jun 08 '23 12:06 umbraclet16

ascend 910测试可以运行,但是由于动态尺寸问题,体验不太好

zhangqijun avatar Jul 24 '23 01:07 zhangqijun

没有对应的硬件所以没法测试。理论上只要能运行pytorch,那么都可以运行非量化的模型(量化的模型有部分代码是用CUDA写的)

实测在国产化环境(飞腾2500 cpu)未量化模型输出正常,int4模型输出乱七八糟的内容。

不太理解如果量化部分代码是cuda写的,为什么x86+cpu正常,arm+cpu就不行?使用cpu时逻辑不是一样的吗。问题在quantization_kernels.c文件吗?

int4 的模型输出一直有问题 前段时间我用3588输出也是乱码

OrdinaryChen avatar Jun 21 '24 02:06 OrdinaryChen