Zihao Chen
Zihao Chen
https://chat.qxme.com 支持登录注册,并开源
开启长回复就行。前端有个配置,监测到长度限制就会continue
项目根目录下 .env 添加VITE_GLOB_OPEN_LONG_REPLY=true
全局搜索VITE_GLOB_OPEN_LONG_REPLY,看看哪里调用了 ,你改成硬编码。好像是有bug。同时在控制台看网络请求,看看结束原因为length还是fail。
是的,build就行
我也发现了,流数据通常是: h he hel hello hello! 我改了后端,我的项目里改成: hello! 冗余数据直接从On2 到了On
The model: gpt-4-0314 does not exist! 没开通gpt4
关掉限流就行啊,在后端看看这部分代码吧
你们知道怎么快速拿到4.0接口吗?我申请一个月了,还没消息
 maxModelTokens 是整个模型的最大token,包括上下文和回复的内容,max_tokens是回复的最大token