chatglm.cpp
chatglm.cpp copied to clipboard
什么时候支持amd的gpu
如何支持amd硬件
同问,或者说能将chatglm.cpp合并到llama.cpp就好了,挺希望能在AMD上跑的。
我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的
llama.cpp 支持 AMD上跑的,llama.cpp我跑AMD ok , 期待chatglm.cpp!!!!
我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的
要不先把 ggml 升级到最新版本? 我看最新版本里面支持 hip 了,现在的版本里面好像代码里面有define,但是 cmake file 都没更新。