Sailfish

Results 20 comments of Sailfish

> Thank you for following! We intend to create an international community, so we encourage using English for questions and answers to help others with similar queries. 😊 > >...

have i run ollama by docker and add it to ragflow networks?

yes it tooks long time. worth it.

> > 按教程容器部署后,始终无法连接本地Ollama的端口,是需要特殊的配置吗? > > 确认Ollama运行及服务正常。 > > ![图片](https://private-user-images.githubusercontent.com/11251894/320687548-aac3e45a-d4b7-46d3-b736-24cf9ca2ca79.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTI2MzI2NjAsIm5iZiI6MTcxMjYzMjM2MCwicGF0aCI6Ii8xMTI1MTg5NC8zMjA2ODc1NDgtYWFjM2U0NWEtZDRiNy00NmQzLWI3MzYtMjRjZjljYTJjYTc5LnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA0MDklMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNDA5VDAzMTI0MFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTcxMzZiZTBhOGQwNzRmYWQ4N2MxNGZmNDMxYjUyYjdlNWIzMjIzYzQ5YTU5NTllODI0NWFlN2U4OTU3MjE3MDYmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.HvuDSBsYTCuEth-bgbzDcb0NnCgWMTW0mHqjzXpayJw) > > 同样的问题,使用ollama在连通性检查中,检查失败;但在部署时修改环境变量后,可以使用ollama > > ```yaml > environment: > - 'OLLAMA_PROXY_URL=http://ip:port/v1' > ``` 感谢回复,这是修改lobe-Chat的环境变量吧?是在docker run命令中指定参数吗?

> 连通性检查失败,但实际可以使用 测试了,用不了: ![图片](https://github.com/lobehub/lobe-chat/assets/11251894/cb98e602-4be4-4334-9575-39bc672148c5) ollama本身正常运行: ![图片](https://github.com/lobehub/lobe-chat/assets/11251894/ecde4227-6c20-4663-a733-47cb5b0cb840)

使用的wsl环境,Ollama直接安装,lobechat使用docker部署的。

蛮简单的,我这个菜鸟下载好按说明也就几分钟搞定,应该不需要容器吧? 推荐用linux,或者wsl。Windows下当然也不是不行……

> 你这是安装了CPU版本的torch吧,去官网装个cuda版本的。

2我还没试,但1代这样配置是没有问题的,顺利使用。可以参考下。 win10系统,使用了相对路径。