bingjiw
bingjiw
run webUI.py on Colab with A100 GPU and 40G GPU RAM still got Error: torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 12.25 GiB (GPU 0; 39.56 GiB total capacity;...
Running on local URL: http://127.0.0.1:7860/ Running on public URL: https://26363563e97e3055dc.gradio.live/ This share link expires in 72 hours. For free permanent hosting and GPU upgrades, run `gradio deploy` from Terminal to...
### 前置确认 - [X] 我确认我运行的是最新版本的代码,并且安装了所需的依赖,在[FAQS](https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs)中也未找到类似问题。 ### ⚠️ 搜索issues中是否已存在类似问题 - [X] 我已经搜索过issues和disscussions,没有跟我遇到的问题相关的issue ### 操作系统类型? MacOS ### 运行的python版本是? other ### 使用的chatgpt-on-wechat版本是? Latest Release ### 运行的`channel`类型是? wx(个人微信, itchat) ### 复现步骤 🕹 [finish.py:23] -...
插件的宿主App 即 ChatGPT on Wechat的安装运行环境:DigitalOcean - App Platform 作为 App docker 运行于 容器内 安装插件时出错: Installing collected packages: XlsxWriter, python-docx, PyMuPDFb, markdown, et-xmlfile, python-pptx, PyMuPDF, openpyx1 ERROR: Could not install packages...
我现使用付费版的moonshot API,如果想要加上search2ai的搜索,应如何操作? 阅读了本站说明,我画了个流程图,似乎是这样,不知是否有误: 问题 1: 关于 第4步 search2ai 是怎样 根据 moonshot API 的返回值来判断是不是要进行搜索的? 问题 2: 关于 第6步 search2ai 是怎样 根据 搜索的结果(结合用户的问题)组织成“人话” (通顺的回答)语句的呢 ? search2ai 会自动内部去调用另一个 LLM GPT 去把搜索结果组织成“人话”吗? 或 search2ai...
### ⚠️ 搜索是否存在类似issue - [X] 我已经搜索过issues和disscussions,没有发现相似issue ### 总结 项目仍在使用openai 0.27.8的老库,openai现在已经1.43.0 了,能否更新一下? ### 举例 项目仍在使用openai 0.27.8的老库,openai现在已经1.43.0 了,能否更新一下? ### 动机 项目仍在使用openai 0.27.8的老库,openai现在已经1.43.0 了,能否更新一下?
### 前置确认 - [X] 我确认我运行的是最新版本的代码,并且安装了所需的依赖,在[FAQS](https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs)中也未找到类似问题。 ### ⚠️ 搜索issues中是否已存在类似问题 - [X] 我已经搜索过issues和disscussions,没有跟我遇到的问题相关的issue ### 操作系统类型? Linux ### 运行的python版本是? python 3.7 ### 使用的chatgpt-on-wechat版本是? Latest Release ### 运行的`channel`类型是? wx(个人微信, itchat) ### 复现步骤 🕹 发一个PDF...
### ⚠️ 搜索是否存在类似issue - [X] 我已经搜索过issues和disscussions,没有发现相似issue ### 总结 一问双答,一次提问 得到 2 个不同的大模型的回答。 因为相同的一个问题,问不同的大模型,给的回答不一样,各有欠缺。 能否同时对一个提问 调用 2个不同的LLM大模型,比如:同时调用:千问 和 GPT-4,或同时调用:Claude 和 GPT-4o,或同时调用:Deepseek 和 豆包。 然后把2个不同的答案 给用户,让用户有更全面的答案。 **另一个值得增加的新功能:对语音消息,先反馈语音识别的结果(如下图红圈处),再回答问题** ### 举例 我看到有一个 昵称叫作 【国产GPT】...
### 🚀 The feature How about expand entity to include conceptual entity by adding the following lines into the system prompt of add() function in graph_memory.py _**Entities include physical entities...
Error processing LLM API response: 500 Server Error: Internal Server Error for url: https://spark.sum4all.site/v1/chat/completions 图片描述: An error occurred while processing LLM API response