且炼时光
且炼时光
1. 可以先在浏览器所在机器的终端上执行下curl命令验证能否连通: ```shell curl --location --request POST 'http://localhost:11434/v1/chat/completions' \ --header 'Authorization: Bearer abc' \ --header 'Content-Type: application/json' \ --data-raw '{ "model": "qwen2.5:0.5b", "messages": [ { "role": "user", "content": "你好,你是谁" }...
应该不是跨域问题,localhost一般不会有跨域问题的。 F12或【浏览器右上角-更多工具-开发者工具】:进入开发者模式 点击网络-过滤条件选Fetch/XHR,页面点击测试:跨域看到completions请求,看其响应或者预览有没有报错信息。 还可以在 completions请求 右击,有下拉菜单,选 复制-复制cURL(bash)格式复制。把请求命令复制出来,分享一下或在终端执行一下。 
> completions 需要在左边的界面点击测试,才会有 completions 请求的
把这个过滤条件去掉应该就可以看到了
好吧,看起来还是跨域问题。 是通过launchctl setenv设置的环境变量吗? 参考这个文档:https://lobehub.com/zh/docs/usage/providers/ollama
确实挺麻烦。那我们用其他第三方的纯web的llm客户端测试一下。 这个项目好像还可以:https://github.com/mrdjohnson/llm-x 直接打开 https://mrdjohnson.github.io/llm-x/ ,按理说不需要任何配置就能使用本地 ollama模型,它会自动识别可用的ollama连接并加载可用模型,你看可不可以。 如果可以,那就不是ollama的问题,反之说明还是ollama配置有问题  
还有一种可能就是 https://github.com/linshenkx/prompt-optimizer/issues/86 ,你是用公网的https访问 localhost 的http,可能触发了浏览器的跨域限制。这个取决于浏览器的处理策略,有些比较严(也可能mac的版本比较严)。所以修改 ollama的配置也没用。只能用docker跑 prompt-optimizer,应该就没问题
> 如果提示词优化器已插件方式安装,没提示连接不上,只提示加载不到模型列表 > 这里引导不太好,填 http://127.0.0.1:11434/v1 应该就可以了
> 因为公司把docker禁掉了,所以本地docker这种方式暂时无法尝试。 > > 通过浏览器插件的方式可以正常访问了 > > 感谢老哥们 浏览器对插件的跨域检查比较宽松,也感谢你陪我调试这么久
> 已配置成功。建议README.MD加上ollama配置示例,避免困惑 是的,谢谢建议