Sailfish
Sailfish
> Thank you for following! We intend to create an international community, so we encourage using English for questions and answers to help others with similar queries. 😊 > >...
have i run ollama by docker and add it to ragflow networks?
yes it tooks long time. worth it.
> > 按教程容器部署后,始终无法连接本地Ollama的端口,是需要特殊的配置吗? > > 确认Ollama运行及服务正常。 > >  > > 同样的问题,使用ollama在连通性检查中,检查失败;但在部署时修改环境变量后,可以使用ollama > > ```yaml > environment: > - 'OLLAMA_PROXY_URL=http://ip:port/v1' > ``` 感谢回复,这是修改lobe-Chat的环境变量吧?是在docker run命令中指定参数吗?
> 连通性检查失败,但实际可以使用 测试了,用不了:  ollama本身正常运行: 
使用的wsl环境,Ollama直接安装,lobechat使用docker部署的。
蛮简单的,我这个菜鸟下载好按说明也就几分钟搞定,应该不需要容器吧? 推荐用linux,或者wsl。Windows下当然也不是不行……
> 你这是安装了CPU版本的torch吧,去官网装个cuda版本的。
2我还没试,但1代这样配置是没有问题的,顺利使用。可以参考下。 win10系统,使用了相对路径。
可能就是最后不要加斜杠或是反斜杠?