chatglm.cpp
chatglm.cpp copied to clipboard
使用python接口运行不能调用gpu
你好,运行如下命令: python cli_chat.py -m ../../pretrained-models/chatglm2-6b-ggml-q8_0.bin -i 发现并没有调用gpu。 之前编译使用: cmake -B build -DGGML_CUBLAS=ON cmake --build build -j 如果使用下面命令是可以正常调用gpu: ./build/bin/main -m ../pretrained-models/chatglm2-6b-ggml-q8_0.bin -i
想问下:是这个python接口还需要适配gpu吗?若有,需要改动什么呢
可以试试在安装时加个环境变量:
CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v
我稍后更新到文档里。目前CUDA性能还比较差,正在优化中。
3q. 这种方式安装后,python接口可以正常调用gpu
@Vincent131499 怎么看出来调用了GPU呢
>>> import chatglm_cpp
>>> model_path="/users_3/chatglm.cpp/chatglm2-ggml.bin"
>>> pipeline = chatglm_cpp.Pipeline(model_path)
>>> pipeline.chat(["你叫小明","好的我叫小明","你是谁"])
'我是一个人工智能助手,不能像真正的人一样感知世界,我只能通过算法和语言模型来回答问题。'
@li-plus 怎么看出来调用了GPU呢
@wqh17101 可以nvidia-smi看下显存占用和GPU利用率
优化了一版 GPU 推理性能,可以装最新的 chatglm-cpp
测试下。
@li-plus CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 这样安装么 模型转换的时候要加什么参数么
优化了一版 GPU 推理性能,可以装最新的
chatglm-cpp
测试下。
你好,请问我下了最新的chatglm-cpp 0.2.1版本,发现还是没有调用gpu,这个是需要加什么参数进去或者指定某个gpu吗?
@Kevinddddddd 要 CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 这样安装。我用起来了
@Kevinddddddd 要 CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 这样安装。我用起来了
好的感谢,我去试一下
@Kevinddddddd 要 CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 这样安装。我用起来了
最好改成:
CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v --no-cache
或者在本地重新编译
CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 'CMAKE_ARGS' 不是內部或外部命令、可執行的程式或批次檔。 在WIN11上的錯誤
我通过CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install chatglm-cpp --force-reinstall -v 安装成功了,但是还是依然不能使用gpu进行推理, docker启动命令加了gpus=all, 加了-e NVIDIA_DRIVER_CAPABILITIES=compute,utility -e NVIDIA_VISIBLE_DEVICES=all 还是不行。请问下是怎么回事呢?@li-plus