imClumsyPanda
imClumsyPanda
感觉不太正常,请问先存占用情况怎么样? bookwoods ***@***.***>于2023年4月15日 周六22:29写道: > 一直停在文本加载处 > (chatglm) D:\langchain-ChatGLM-master>python cli_demo.py > Explicitly passing a revision is encouraged when loading a model with > custom code to ensure no malicious code...
请问现在解决了吗
如果使用默认的6b+text2vec模型,建议使用显存至少15GB的显卡,详细请见 README.md 中硬件配置相关内容 12G可以考虑使用chatglm-6b-int4模型+text2vec bookwoods ***@***.***>于2023年4月17日 周一19:21写道: > 还没有,放弃了,再试试其他办法 > > — > Reply to this email directly, view it on GitHub > , > or unsubscribe > > ....
可以直接在本地使用 langchain 的 UnstructuredFileLoader 尝试对pdf文件进行加载,调试看看什么问题 杨凌 ***@***.***>于2023年4月15日 周六15:26写道: > e:\a.txt加载成功了,e:\a.pdf加载就失败,pdf文件里面前面几页是图片,后面都是文字,加载失败没有报更多错误,请问该怎么排查? > > — > Reply to this email directly, view it on GitHub > , or > unsubscribe > >...
这两天我试一下能否提供topk和相似度阈值两种方案
按照报错来说应该是文档已完成load,但还未完成vector_store的生成,完成vector_store生成后前端会有回复。
cpu 上运行单次回复可能耗时比较长,建议可以先考虑使用命令行 demo 进行测试,目前 Web UI 还在持续完善中。
目前已更新v 0.1.0新版本,建议更新至最新版代码后再测试看看
请检查一下protobuf版本或重新pip install -r requirements.txt wangchao ***@***.***>于2023年4月19日 周三18:02写道: > 更新很快啊,赞,已用最新鲜版本跑了,24core cpu,推理等了挺久,然后报错: > > python3 ./webui.py > Explicitly passing a revision is encouraged when loading a model with > custom code to...
1 刚更新了项目代码,可以有效解决爆显存问题 2 目前的函数已经分为生成 vector_store 和基于 vector_store 问答,中间可以使用 save_local 和 load_local 进行 vector_store 的存储和载入,具体可以参考 langchain 文档相关章节。