Lawrence Peng

Results 15 comments of Lawrence Peng

由于Stream通信方式,和OpenAI服务器之间使用的是 SSE `github.com/sashabaranov/[email protected]/chat_stream.go:36 ` 进行通信的,我觉得这个长连接还是需要更长的 Timeout 时间。我先将这个时间弄成可以配置的,然后再给一个默认的时间把。这个默认的时间我觉得给个 550 秒 (❁´◡`❁ 原来的5倍)

已经改好了 https://github.com/ConnectAI-E/Feishu-OpenAI-Stream-Chatbot/pull/13

请问你是从哪里看出来 “数据还是gpt-3.5” 的呢?我测试过,只要将 config.yaml 里面 配置为 OPENAI_MODEL: gpt-4,代码里面运行到: https://github.com/ConnectAI-E/Feishu-OpenAI-Stream-Chatbot/blob/59f6bd7951cf0d18a70a56820413499084d245ce/code/services/chatgpt/gpt3.go#L61 的时候就会生效了。 GPT4 的特征就是会慢一些。 此外配置的时候请按照这里配置 https://platform.openai.com/docs/models/model-endpoint-compatibility `gpt-4, gpt-4-0314, gpt-4-32k, gpt-4-32k-0314, gpt-3.5-turbo, gpt-3.5-turbo-0301`

have you configured proxy in docker-compose.yml or config.yaml ?

可能和这个是同一个问题:https://github.com/ConnectAI-E/Feishu-OpenAI-Stream-Chatbot/issues/11#issuecomment-1537032192