wwjCMP
wwjCMP
使用本地的llama3
希望可以设置保留不同筛选条件下的脑记忆,分别命名,根据命名在提问的界面就可以切换。把设定不同脑记忆的功能放到设置里,把切换脑记忆放在提问界面。

I use a remote service http://192.168.101.19:11434 And I don't see Ollama receiving any requests
> Is your .env set to: OLLAMA_HOST=http://192.168.101.19:11434 services: backend: build: context: . dockerfile: ./src/backend/Dockerfile.dev restart: always ports: - "8600:8000" environment: - OLLAMA_HOST=${OLLAMA_HOST:-http://192.168.101.19:11434} - TAVILY_API_KEY=${TAVILY_API_KEY} - OPENAI_API_KEY=${OPENAI_API_KEY} - GROQ_API_KEY=${GROQ_API_KEY} - ENABLE_LOCAL_MODELS=${ENABLE_LOCAL_MODELS:-True}...

services: backend: build: context: . dockerfile: ./src/backend/Dockerfile.dev restart: always ports: - "8600:8000" environment: - OLLAMA_HOST=${OLLAMA_HOST} - TAVILY_API_KEY=${TAVILY_API_KEY} - OPENAI_API_KEY=${OPENAI_API_KEY} - GROQ_API_KEY=${GROQ_API_KEY} - ENABLE_LOCAL_MODELS=${ENABLE_LOCAL_MODELS:-True} env_file: - .env develop: watch: - action:...
TAVILY_API_KEY=t OLLAMA_HOST=http://192.168.101.19:11434
This can actually be achieved now.
> @logancyang事实上我刚刚确实测试过了。 > > 我的请求以 422 错误结束。 > > 这是我正在使用的设置。我填写了字段以方便说明,但模型是这样设置的。  > > 这是聊天窗口:  > > 这是来自网络选项卡。我认为可以忽略矢量错误,因为我禁用了 Vault RAG。 > >  > > 我测试了一些其他配置 - 要么使用基本 URL 要么使用完整...