wwjCMP
wwjCMP
 使用mxbai-embed-large还是会出现一样的错误,但下面的数字出来了
目前测试下来,设置应该是没有问题的。就是这个超时太容易报错了。 Request timed out after 12000 ms 只有一些简单的问题才有可能正常回答,比如:“概括主题”
使用完全本机推理也一样,log显示正在推理,gpt插件就已经提示超时,导致没法接收推理完的结果
> 我也有一样的问题,请问你解决了吗? 没有
这个问题目前还有没有解决,对于本地模型不应设置超时限制。模型还在运行推理,插件这边就超时报错了。希望可以提供一个设置开关,手动控制是否开启超时报错 >出错了,下面是一些报错信息: >Request timed out >如果是网络问题,建议优化网络,比如打开/切换代理等。
> 请提供更详细的信息,无法理解你的问题是什么。 不使用 https://localhost:11434,而使用自定义的链接
调用ollama需要填写他的url,默认是我上面的那个,但是有时候需要修改url。这个不需要复现 ,而是要实现
What I mean is 
LM Studio provides proxy functionality compatible with the OpenAI API.
> Update: Thanks to the help of an individual who prefers to remain unnamed, I got the Smart Chat working with Ollama. So far, the new settings for the local...