chatglm.cpp
chatglm.cpp copied to clipboard
请问是否有将chatglm.cpp合并到llama.cpp的计划?
这个得看llama.cpp作者同不同意
我可以尝试往 llama.cpp 迁移,但他们现在应该没办法支持 tool call / code interpreter 之类的功能
顺便问一下, code interpreter目前只支持chatglm吗?
目前llama.cpp已经支持Baichuan2了, 试了一下用convert-hf-to-gguf.py直接能创建, 但为什么chatglm.cpp需要的内存比llama.cpp少那么多
用llama.cpp转换Baichuan2的gguf版本后试了一天, 愣是没有办法解决死循环的问题, 我还是继续用chatglm.cpp吧, 如果有解决方法可以告诉我一下谢谢
用llama.cpp转换Baichuan2的gguf版本后试了一天, 愣是没有办法解决死循环的问题, 我还是继续用chatglm.cpp吧, 如果有解决方法可以告诉我一下谢谢
这个我有办法,之前我量化yi-6b-200k的模型时也是这样,加上一个停止符就可以了,官方告诉我的
关注