chat-ollama
chat-ollama copied to clipboard
ChatOllama is an open source chatbot based on LLMs. It supports a wide range of language models, and knowledge base management.
Jina Reranker v2出来了,大佬们要不要考虑升级一下? ``` 多语言:在100多种语言中提供更相关的搜索结果,性能超过bge-reranker-v2-m3; Agentic:为Agentic RAG提供最先进的函数调用和文本到SQL重排; 代码检索:在代码检索任务上表现最佳; 极速:文档吞吐量是bge-reranker-v2-m3的15倍,是jina-reranker-v1-base-en的6倍。 ```
就像dify那样 https://github.com/sugarforever/chat-ollama/issues/315 https://github.com/sugarforever/chat-ollama/issues/503
Fits docker-compose_gpu.yaml with latest docker-engine, avoid following error : ``` WARN[0000] /path_to_chat_ollama/chat-ollama/docker-compose_gpu.yaml: `version` is obsolete service "redis" refers to undefined volume redis_data: invalid compose project ```
1、建议文档分块大小可自定义修改,根据用户不同文档自定义适配。扩大提取到的子文档分块,缩小父文档分块。 2、建议将文档名称等文档原数据和子文档数据绑定,例如:将文档名称加入到子文档分块头部、利用大模型对子文档快进行50字摘要总结后加入子文档分块头部 然后向量存储,来提高查询文档的准确率。因为用户通常的提问是简短的总结性文字。 3、知识库上传可以做成后台任务来执行,显示进度条即可
希望加入qwen-vl模型、Yi-VL、ollama里面也有几个VL模型
when I create a new knowledge database, and then I choose directory , in the directory I have four files, however , I click save button, then I receive a...
在docker上運行 初估也許需要更改上傳檔案邏輯
控制最大输出的字数。有一些本地支持长上下文的模型会不断地回答,希望增加一个最大输出字数的设置项。

现在每次使用前都需要log in。既然这是一个运行在内网甚至本地的应用,网络环境应该是安全的,是否可以把session timeout的时间设置得更久一些,Log out需要手动执行,甚至重启ChatOllama也不会失效?