chat-ollama
chat-ollama copied to clipboard
ChatOllama is an open source chatbot based on LLMs. It supports a wide range of language models, and knowledge base management.
本地知识相关问题
1.导入本地知识库,文本数据配置切分长度,回复的问题不太理想,可以参考anythingllm的,设置文本索引长度后,准确性相对有所提高 2.依据本地知识库回答的问题进行对其纠正后,当前对话框能正确回复,但是新建对话框,或者其他用户访问回复的答案已经是错误的 3.问题回答存在发散性,是否可以新增配置,类似chatbot中的Temperature值,设置严谨和发散 4.是否支持本地知识库设置prompt模版 
对于文献来说:对应某个知识点是不断更新的,如何对知识库某个知识点,通过聊天的时候进行更新,并写入新的理解,但是需要保留旧的知识点。?或者批量更新?
如题
docker环境下还要再单独设置网络环境吗?如何设置?
before: after:
docker yml文件配置如下: ``` services: chromadb: image: chromadb/chroma ports: - "8000:8000" restart: always volumes: - chromadb_data:/chroma/.chroma/index chatollama: environment: - VECTOR_STORE=milvus - MILVUS_URL=http://host.docker.internal:19530 - CHROMADB_URL=http://chromadb:8000 - DATABASE_URL=file:/app/sqlite/chatollama.sqlite - REDIS_HOST=redis - COHERE_API_KEY=xxxxx -...
设置超长文本窗口时,本地模型需要较长的推理时间。
如题,建议增加管理员账户,现在注册的每一个账户进去都能删除模型,看到key,太可怕了
否则后面对话数量多起来,根本无法管理