imClumsyPanda
imClumsyPanda
update langchain as suggested in requirements.txt it’s a new feature in langchain newer than 0.0.146
其实现在prompttemplate有这个内容 但glm-6b没有按照预期生成 Yingxuan Li ***@***.***>于2023年4月26日 周三18:14写道: > 如果通过设计system_template,让模型在搜索到的文档都不太相关的情况下回答“我不知道” > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > > . >...
v0.1.6版本中已经把 prompt_template 提到 configs/model_configs 中进行设置,建议测试不同 prompt 的影响,可能能够实现效果优化。
可以从调整prompt template角度来测试一下,相同prompt template在输入给不同llm的时候,如果有的llm生效了,只能说这种prompt对其他几个模型无效,这个过程感觉会需要大量调试 Anne Stake ***@***.***>于2023年4月30日 周日15:25写道: > > 有没有发现,模型对特定检索的语料的回答问题的结果非常差,基本不可用,而且,无论如何设置,特别对于根本和检索出来的语料不匹配的情况下,模型仍然会自己回答,永远不会出现,“我不知道”这种情况。这是模型的bug吗? > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > >...
请问gradio版本是? 02 ***@***.***>于2023年4月26日 周三17:18写道: > Traceback (most recent call last): > File "/home/heyiheng/work/langchain/langchain-ChatGLM/webui.py", line 155, > in > chatbot = gr.Chatbot([[None, init_message], [None, model_status.value]], > File > "/home/young/anaconda3/envs/sakura/lib/python3.10/site-packages/gradio/components.py", > line...
收到 感谢 Harry-Lucas ***@***.***>于2023年4月27日 周四15:09写道: > 1.weiui的get_vector_store方法里面添加一个判断以兼容gradio版本导致的上传异常 > if isinstance(files,list)==False: > files=[files] > 2.get_knowledge_based_answer方法generate_prompt(related_docs, > query)添加生成promot限制.不然会导致promot过长内存报错 > > — > Reply to this email directly, view it on GitHub >...
已通过chunk_size方式进行长度限制
请问模型已经下载到本地并更新到最新版了吗? gsshawn ***@***.***>于2023年4月27日 周四15:07写道: > Mac 运行 python3 ./webui.py 报 TypeError: The type of > ChatGLM.callback_manager differs from the new default value; if you wish to > change the type...
将在后续版本中增加知识库名与实际存储位置字典,以解决这一问题
建议参考一下 readme 常见问题中的方法把 embedding 和 llm 模型下载并在 configs/model_config.py 中配置 embedding 与 llm 的本地地址。 除此之外,对于本地使用 Web UI,建议将 Gradio 版本要求降低至 3.21,否则可能出现因需要联网下载字体导致的持续停留在 loading 画面