jingnorth
jingnorth
本地知识库用文本格式的文件上传,用llama3试用,发现回答的不准确,是否目前必须使用pdf的格式? 另外请问本地知识库的搜索精确性是否取决于RAG的架构,搜索的结果输出才和大模型相关,也就是说搜索的精确性和大模型关联性不大呢
目前Attached Messages Count的数量最大为50,对于需要长输出的答案少了点,是否可以放宽限制?
比如本地下载的开源模型经过微调后,chat-ollama可以调用本地的模型
知识库文件经常有变化,想用python 自动维护已经有的知识库,比如每天全量更新,是否有API,或者其它方式来完成呢
docker 重新拉最新版本后,知识库返回为空,请开发帮忙看看 在yaml的文件夹内执行 docker compose pull docker compose up --force-recreate docker images REPOSITORY TAG IMAGE ID CREATED SIZE 0001coder/chatollama latest e5876ddd10a0 32 hours ago 1.43GB chromadb/chroma latest eac017c6f83b 3 weeks...
请问需要更新prisma吗,docker安装的如何更新,需要在哪个容器内更新呢? [root@wae chartollama]# docker compose exec chatollama npx prisma migrate dev WARN[0000] /home/llm/chartollama/docker-compose.yaml: version is obsolete Prisma schema loaded from prisma/schema.prisma Datasource "sqlite": SQLite database "chatollama.sqlite" at "file:/app/sqlite/chatollama.sqlite" Already in...
docker 模式安装 chatollama后台如何打开,对于问题定位有帮助,但不知道怎么打开
目前ollama的部分模型有很好的对上下文全输入时问题回答的准确性,但放在本地知识库,观察日志,发现搜索的准确性不佳,如何在现有架构上提高搜索的准确性?
远程服务器上用docker方式安装了chatollama ,当创建知识库时出现报错Chroma getOrCreateCollection error: Error: TypeError: fetch failed,请问是否是上传文件失败?需要打开什么访问端口吗,因为服务器安全策略比较严格,目前远程不带知识库问答正常