chatglm.cpp icon indicating copy to clipboard operation
chatglm.cpp copied to clipboard

chatglm-cpp 无法使用mps

Open timoyang opened this issue 1 year ago • 2 comments

环境:macos m2 python3.11.4

按照指引中: CMAKE_ARGS="-DGGML_METAL=ON" pip install -U chatglm-cpp

安装成功提示: Looking in indexes: https://mirrors.aliyun.com/pypi/simple/ Collecting chatglm-cpp Using cached chatglm_cpp-0.2.10-cp311-cp311-macosx_14_0_arm64.whl Installing collected packages: chatglm-cpp Successfully installed chatglm-cpp-0.2.10

在使用python样例测试的过程中:

import chatglm_cpp pipeline = chatglm_cpp.Pipeline("chatglm3-ggml.bin") pipeline.chat(["介绍一下深圳的历史"])

观察系统监控,发现实际使用了cpu而不是gpu image


同时按照官方实例:

./build/bin/main -m chatglm-ggml.bin -i

进行测试的时候,通过观察系统监控是可以使用gpu的 image

请问是我在安装chatglm_cpp的过程中,什么环节出了问题导致无法使用mps?

timoyang avatar Oct 30 '23 15:10 timoyang

image

我猜大概率是因为你当前目录下有一个 chatglm_cpp 的子目录 我是先吧项目的 chatglm_cpp 子目录重新命名后再安装 pip 扩展 验证 mps 后端使用 GPU 的

dcw4code avatar Oct 31 '23 15:10 dcw4code

看到输出的log里有

Using cached chatglm_cpp-0.2.10-cp311-cp311-macosx_14_0_arm64.whl

应该是使用了缓存的 cpu wheel,尝试下加上 --no-cache-dir 参数来安装

CMAKE_ARGS="-DGGML_METAL=ON" pip install -U chatglm-cpp --no-cache-dir --force-reinstall

li-plus avatar Nov 22 '23 02:11 li-plus