Baichuan-13B
Baichuan-13B copied to clipboard
Baichuan-13B-Chat可以批量调用吗?
你好,请问基于Baichuan-13B-Chat模型可以使用batch进行批量调用吗?
same question
你好,请问基于Baichuan-13B-Chat模型可以使用batch进行批量调用吗?
https://github.com/yanzihan1/Baichuan-batch-inference 简单demo
可以直接使用 FastChat,兼容 openai 的 api
可以直接使用 FastChat,兼容 openai 的 api
baichuan2 can be loaded with fastchat, but the performance is very different from that of normal deployment. I don't know why the performance is lost.
你好,请问基于Baichuan-13B-Chat模型可以使用batch进行批量调用吗?
自己改了一个批量生成的示例 https://github.com/MrInouye/baichuan-13b-chat-batch/tree/main