SoDam-C

Results 2 comments of SoDam-C

请问解决了吗,遇到了同样的问题

> > 你这个步骤是对的,没有问题 只要 http://localhost:11434* 返回了 running 就说明 ollama 服务在运行中了 > > 请问你的 ollama 服务和 docker,是运行在同一个机器上的么? > > @harry0703 > > 我使用的是本地搭建的方式,我的ollama服务和启动的 `chainlit run main.py` 服务都是再同一台机器上 我也遇到了同样的问题,你这边解决了吗