hanabi
hanabi
一样的问题
Alright, I found that the Chrome installation location on my computer is not the default one. 
> I have opened PR to fix this. you can look the code there I don't think this issue has been resolved because my Chrome installation location is not in...
我也遇到了   
langbot和napcat的网络是打通了的,我用硅基流动的模型已经能正常使用,只是因为接口太慢想连接本地模型发现报连接失败 本地模型运行在局域网的其他机器上 
langbot容器内测试本地模型连接情况  
langbot和napcat分别运行在各自docker容器 网络能互通 ollama运行在局域网的个人电脑上 ip:192.168.31.60 langbot容器内能ping通ollama 端口也是通的 provider配置如图 使用local元数据配置 报连接失败
好吧 我放弃本地部署了 老老实实用第三方api了
> > 好吧 我放弃本地部署了 老老实实用第三方api了 > > 你要不直接把langbot也放到部署ollama的机器上呗 ollama是win个人电脑部署的 没装docker windows再去搞docker感觉那套太麻烦了...
> > 好吧 我放弃本地部署了 老老实实用第三方api了 > > 你要不直接把langbot也放到部署ollama的机器上呗     最新错误404