Results 5 comments of MoncozGC

我也有同样的问题,请教下该如何解决呢 @glide-the @imClumsyPanda

> 这个项目的核心是语音识别,视频要有配音,或者对话内容。如果只是单纯的背景音乐,可能无法识别,会报错 不过重新换了一个有配音的视频,会报错 503,是我有什么服务没有启动嘛 ```log rtf_avg: 0.215, time_speech: 46.440, time_escape: 9.969: 100%|█████████| 1/1 [00:10

因为第一次使用ollama,有些地方不清楚,下面是我的操作 1. 拉取了模型 ollama pull qwen2:7b,使用ollama list可以查看到这个模型 2. 执行 ollama serve,启动api服务 3. 执行 ollama run qwen2:7b 成功进入了 模型会话界面(有时候进入会失败)并且可以进行对话 4. 访问 `http://localhost:11434` 成功,返回了 `Ollama is running` 5. 访问 `http://localhost:11434/v1` 失败,报错 404...

> 你这个步骤是对的,没有问题 只要 http://localhost:11434* 返回了 running 就说明 ollama 服务在运行中了 > > 请问你的 ollama 服务和 docker,是运行在同一个机器上的么? @harry0703 我使用的是本地搭建的方式,我的ollama服务和启动的 `chainlit run main.py` 服务都是再同一台机器上