chatgpt-mirai-qq-bot
chatgpt-mirai-qq-bot copied to clipboard
[BUG] bot无法获得GPT的回复
提交 issue 前,请先确认:
- [x] 我已看过 FAQ,此问题不在列表中
- [x] 我已看过其他 issue,他们不能解决我的问题
- [ ] 我认为这不是 Mirai 或者 OpenAI 的 BUG
表现
bot在工作时对GPT发起的对话无法得到正常的回应
运行环境:
- 操作系统:win11
- Docker: 否
- 项目版本:v2.5.3
复现步骤
- 使用go-cq按照一般流程启动bot,用token登录openai账号,看起来比较顺利。
- 在QQ对bot账号进行测试,无论群发还是私聊,bot账号只能对预设信息作出回应,无法回复任何其他信息。
- 在bot窗口、go-cq窗口,bot能够接收到所有测试信息,但没有任何回应的迹象,甚至没有发现报错信息。
- 直接在网页登录GPT进行检查,可以看到bot已经把测试信息发送给了GPT,但没能得到回复。(此后,本人亲自对GPT发出信息,是可以正常对话的。)
预期行为
bot能够触发对话,收到了GPT的回复,并将其发送至QQ
截图
其他内容
纯外行,已经被困在这步一整天了,也不知道是我做错了还是OpenAI出bug了
已解决; 问题原因:在bot中配置了代理的同时,我的梯也一直开着全局代理; 解决方法:关闭梯子的全局代理设置。
应该不是这个问题,感觉像是openai对机器人的一种屏蔽手段
我也出现了这种情况,我在官网上能用,但机器人会一直(我在官网上看到的问题)有个There was an error generating a response
应该不是这个问题,感觉像是openai对机器人的一种屏蔽手段
确实有这个可能; 我今天又遇到了类似情况,对代理进行操作后依旧没能解决
反代的问题,就是项目中的 '端点'。 按照某大佬的项目自建的端点,用了好几个月都没问题,这几天和你的状况一样。 现在改用网络上分享的公益端点,一切正常了。暂时先用着,找到问题根源再说。
反代的问题,就是项目中的 '端点'。 按照某大佬的项目自建的端点,用了好几个月都没问题,这几天和你的状况一样。 现在改用网络上分享的公益端点,一切正常了。暂时先用着,找到问题根源再说。
哪个能用啊,能不能分享一下,我找了好多都不行
我也是这样 换了接口还是没用
我自己的情况暂时解决了; 目前已知:这种情况发生后有可能通过更换新的接入点来应对,但并非所有接入点都能够避免
反代的问题,就是项目中的 '端点'。 按照某大佬的项目自建的端点,用了好几个月都没问题,这几天和你的状况一样。 现在改用网络上分享的公益端点,一切正常了。暂时先用着,找到问题根源再说。
同求,自己搭建的都没法回复。