sugarforever
sugarforever
> 我加了7个PDF大文档,非常耗时,似乎上下文检索不到一些信息。 7个文档共计有多大?数据处理需要完成分片,向量化,并存储,这个过程是主要耗时的阶段。 当前的RAG实现还是比较基础的,所以检索质量还有很大提升空间。我们会持续改进。
> 同样的问题,ollama在本地,chroma用虚机docker。  拉取一下最新版本的代码或者docker镜像。如 @satrong 所分享的,问题已经通过 #171 解决。
@nicky2983 @Dorawen 请首先确认下你们使用的Docker版本。最新版本的桌面版Docker是支持 host.docker.internal 域名访问本地host - https://docs.docker.com/desktop/networking/ ``` The host has a changing IP address, or none if you have no network access. We recommend that you connect to the...
> 我也发现没有根据文档来回答问题 你是用的什么模型来问答的?
> 不行,再试了下还是不行。在anythingllm上可以。 你说的不行是什么情况?会跑崩还是回答不是期望的结果? 截图中的回答是有什么问题吗?我没有看出什么端倪
需要在代码里添加支持,主要改动会在 `vectorstores.ts` 。这周我可以来添加。目前已经加上了milvus的支持
参考一下 https://github.com/sugarforever/chat-ollama/pull/165 我一会儿准备合并。
看看有什么期望扩展的
是的。这也是未来long term memory的计划的一部分
> 那我是做还是不做呢😂 进度如何了?不介意的话就继续完成吧。