Xintao Wang
Xintao Wang
According to my experience and #11126, this problem seems to happen because: 1. the current webui saved some wrong information into the picure. 2. so that it can not be...
> > 请问支持国内网络环境吗 > > 支持的,对接微信只能用国内网络 换了新的代码后,我收到了以下报错信息: _TimeoutError: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。_ 我怀疑是因为没有翻墙吗?因为,要用网页版的ChatGPT的话,是需要翻墙到国外ip的。很自然的想,API是否也有这个限制? (但是翻墙的话,对接微信就登陆不上了,不知道怎么解决)
感谢您的回答。关于您提到的这些挑战,我有以下问题和粗浅的想法想和您探讨一下: - ChatBot的长期记忆这块,随着更大context的LLM(比如使用Claude)出现,会自然得到解决吗?另外,将用户与角色的对话存入Dialogue Corpus或极端点训入模型,有尝试过这类方案吗? - 个人好奇,目前的对话记录检索似乎是基于向量的。arxiv技术报告中似乎有提到,对话的拆分不会很精确,在对话间可能包含其他文字。这样的话,以用户问题作为query,以小说中的节选(对话)作为key的向量检索会不会存在噪音?是否需要使用BM25或其他符号算法? - 角色的记忆变化感觉是LLM的时间感知的问题。这个我之后可以针对角色对话场景试点启发式的方案,但我觉得不太会有效()。 - “如何不泄露秘密”是个很有意思的话题。或许可以借鉴隐私保护的相关工作? 关于小说-电影 alignment这块我没有什么想法,就不讨论了。 Here is the English translation: Thank you for your response. I have some questions and preliminary thoughts on...
将用户对话数据存入db是否是一种长期记忆的有效方案?我看了下代码,似乎目前没有把用户对话数据存入db。 关于角色记忆变化,是否能将角色相关语料/事件按时间切分成n段,每段训练一个lora?如果用户想与角色在1.5段的记忆位置进行对话,则使用第1个lora与前1.5段的对话语料库? 剧本杀上可能也可以使用类似的,只要让该角色checkpoint自己也不知道这个秘密就好了(笑) Here is the English version: Is storing user dialogue data in a database an effective long-term memory solution? I looked at the code, and it seems that...
The server (AWS t2.micro instance, 1 vCPU, 1GB RAM, free-tier) crashed while running compute.py. Suspected insufficient compute resources. Considering upgrading resources but seeking guidance.