Baichuan-13B
Baichuan-13B copied to clipboard
最大长度能不能进一步增大?
chatglm2-6b用FlashAttention增大了context长度,百川有没有同样的计划?
chatglm2-6b用FlashAttention增大了context长度,百川有没有同样的计划?
https://lmsys.org/blog/2023-06-29-longchat/
感谢建议。我们会在后续迭代中关注long context问题