yuzhi
yuzhi
host.docker.internal? 我不太明白,是指 http://localhost:11434/ 吗,我测试修改过本地的host: 127.0.0.1 local.docker,能够被ping通,但是无法连接上ollama > Hi [@yuzhi-jiang](https://github.com/yuzhi-jiang), can you change 127.0.0.1 to host.docker.internal for the api_base property? I think using 127.0.0.1 cannot be connected from the container.
> > host.docker.internal? 我不太明白,是指 http://localhost:11434/ 吗,我测试修改过本地的host: 127.0.0.1 local.docker,能够被ping通,但是无法连接上ollama > > > Hi [@yuzhi-jiang](https://github.com/yuzhi-jiang), can you change 127.0.0.1 to host.docker.internal for the api_base property? I think using 127.0.0.1 cannot be connected...
> > host.docker.internal? 我不太明白,是指 http://localhost:11434/ 吗,我测试修改过本地的host: 127.0.0.1 local.docker,能够被ping通,但是无法连接上ollama > > > Hi [@yuzhi-jiang](https://github.com/yuzhi-jiang), can you change 127.0.0.1 to host.docker.internal for the api_base property? I think using 127.0.0.1 cannot be connected...
> For the first question, I think the error might be because you forgot to update the pipeline setting in the config.yaml to match the current embedding model. > >...
> > 2025-03-06 12:27:29 "embedder": embedder_provider.get_document_embedder(), > > 2025-03-06 12:27:29 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ > > 2025-03-06 12:27:29 AttributeError: 'NoneType' object has no attribute 'get_document_embedder' > > I noticed that the naming issue...
@paopa 好的我马上试试,不知道你认为ollama跑的什么模型合适,我可以马上pull,我目前还有空间,但是显存不太够,所以大概只能流畅运行14b左右的模型
> [@paopa](https://github.com/paopa) 好的我马上试试,不知道你认为ollama跑的什么模型合适,我可以马上pull,我目前还有空间,但是显存不太够,所以大概只能流畅运行14b左右的模型 现在ai service 不报错了,页面请求无反馈,所以我目前的目标是能使用,以至于性能和准确度的问题才能在申请更多的显存  ``` { "data": { "getProjectRecommendationQuestions": { "status": "GENERATING", "questions": [], "error": null, "__typename": "RecommendedQuestionsTask" } } } ```
> [@yuzhi-jiang](https://github.com/yuzhi-jiang) 你看看后台服务器是不是报了这个错,我现在就卡在这里 orjson.JSONDecodeError:unexpected character:line 1 column 1(char 0)c 是的,可能是模型返回问题? @paopa 当我使用模型 ``` model: ollama_chat/phi4:14b ``` 报错: ``` 2025-03-07 09:07:29 ERROR: Traceback (most recent call last): 2025-03-07 09:07:29 File "/app/.venv/lib/python3.12/site-packages/starlette/routing.py",...
@paopa 感谢你帮我修改配置,我使用了你建议的最新配置,但我依然遇到如下错误,我注意到wrenai在3天前有更新,我是否需要更新docker image 的version? 
> 嘿[@yuzhi-jiang](https://github.com/yuzhi-jiang),我知道这有点麻烦,但是对于您的配置,您需要在 config.yaml 中将所有内容更改为。顺便说一句,我在 PR #1371 中简化了管道管理`ollama/phi4:14b`,[因此](https://github.com/Canner/WrenAI/pull/1371)如果您想轻松地在 llm 和嵌入模型之间切换,您可以查看 PR。`ollama_chat/phi4:14b`[](https://github.com/Canner/WrenAI/pull/1371) > > 这是我添加别名以简化管道管理的版本。 > > ``` > type: llm > provider: litellm_llm > models: > - api_base: http://192.168.177.95:11434 > model:...