chat-ollama icon indicating copy to clipboard operation
chat-ollama copied to clipboard

ChatOllama is an open source chatbot based on LLMs. It supports a wide range of language models, and knowledge base management.

Results 293 chat-ollama issues
Sort by recently updated
recently updated
newest added

1.导入本地知识库,文本数据配置切分长度,回复的问题不太理想,可以参考anythingllm的,设置文本索引长度后,准确性相对有所提高 2.依据本地知识库回答的问题进行对其纠正后,当前对话框能正确回复,但是新建对话框,或者其他用户访问回复的答案已经是错误的 3.问题回答存在发散性,是否可以新增配置,类似chatbot中的Temperature值,设置严谨和发散 4.是否支持本地知识库设置prompt模版 ![image](https://github.com/sugarforever/chat-ollama/assets/168286984/96b6727b-4afc-466a-8548-32da29bf23a2)

对于文献来说:对应某个知识点是不断更新的,如何对知识库某个知识点,通过聊天的时候进行更新,并写入新的理解,但是需要保留旧的知识点。?或者批量更新?

docker yml文件配置如下: ``` services: chromadb: image: chromadb/chroma ports: - "8000:8000" restart: always volumes: - chromadb_data:/chroma/.chroma/index chatollama: environment: - VECTOR_STORE=milvus - MILVUS_URL=http://host.docker.internal:19530 - CHROMADB_URL=http://chromadb:8000 - DATABASE_URL=file:/app/sqlite/chatollama.sqlite - REDIS_HOST=redis - COHERE_API_KEY=xxxxx -...

设置超长文本窗口时,本地模型需要较长的推理时间。

如题,建议增加管理员账户,现在注册的每一个账户进去都能删除模型,看到key,太可怕了

否则后面对话数量多起来,根本无法管理