kiss-translator icon indicating copy to clipboard operation
kiss-translator copied to clipboard

ollma 403怎么办?

Open zero617 opened this issue 1 year ago • 5 comments

logs: PS C:\Users\60461> ollama serve 2024/08/07 14:40:41 routes.go:1011: INFO server config env="map[OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_HOST: OLLAMA_KEEP_ALIVE: OLLAMA_LLM_LIBRARY: OLLAMA_MAX_LOADED_MODELS:1 OLLAMA_MAX_QUEUE:512 OLLAMA_MAX_VRAM:0 OLLAMA_MODELS: OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:1 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://*] OLLAMA_RUNNERS_DIR:D:\Software\scoop\apps\ollama_cderv\current\ollama_runners OLLAMA_TMPDIR:]" time=2024-08-07T14:40:41.359+08:00 level=INFO source=images.go:740 msg="total blobs: 5" time=2024-08-07T14:40:41.360+08:00 level=INFO source=images.go:747 msg="total unused blobs removed: 0" time=2024-08-07T14:40:41.360+08:00 level=INFO source=routes.go:1057 msg="Listening on 127.0.0.1:11434 (version 0.1.42)" time=2024-08-07T14:40:41.361+08:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cpu_avx cpu_avx2 cuda_v11.3 rocm_v5.7 cpu]" time=2024-08-07T14:40:41.532+08:00 level=INFO source=types.go:71 msg="inference compute" id=GPU-5392dfca-71f5-39f0-f508-c97cd317dd59 library=cuda compute=8.9 driver=12.4 name="NVIDIA GeForce RTX 4060 Ti" total="16.0 GiB" available="14.9 GiB" [GIN] 2024/08/07 - 14:40:50 | 403 | 0s | 127.0.0.1 | POST "/api/generate" [GIN] 2024/08/07 - 14:40:51 | 403 | 0s | 127.0.0.1 | POST "/api/generate" [GIN] 2024/08/07 - 14:40:52 | 403 | 0s | 127.0.0.1 | POST "/api/generate"

zero617 avatar Aug 07 '24 06:08 zero617

启动ollama时添加一个环境变量即可 OLLAMA_ORIGINS=*

详细解释看这里:https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama

fishjar avatar Aug 13 '24 16:08 fishjar

启动ollama时添加一个环境变量即可 OLLAMA_ORIGINS=*

详细解释看这里:https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama

添加了环境变量仍然403

Derkida avatar Oct 12 '24 19:10 Derkida

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

X-Bird avatar Nov 09 '24 08:11 X-Bird

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

测试总是报错。都是这样的消息: {"model":"aya:latest","created_at":"2024-11-22T08:36:55.085113053Z","response":",","done":false}

模型本身没问题,用各种ChatGPT兼容界面去连接/v1/chat/completions,让它翻译,都能翻译过来。而且我用的格式就是KISS Ollama设置里面那种,只不过把{{from}}{{to}}{{text}}这些都替换成具体的值。

adrianzhang avatar Nov 22 '24 08:11 adrianzhang

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

看到了另一个issue https://github.com/fishjar/kiss-translator/issues/112 把Ollama相关设置写到ChatGPT那里就可以。

adrianzhang avatar Nov 22 '24 08:11 adrianzhang

我这里设置ollama也是403错误, 但是同样的ollama接口和模型, 在IDE中使用是正常的

zjkal avatar Aug 09 '25 15:08 zjkal

我这里设置ollama也是403错误, 但是同样的ollama接口和模型, 在IDE中使用是正常的

ollama启动时有没有添加环境变量 OLLAMA_ORIGINS=*

fishjar avatar Aug 10 '25 03:08 fishjar

我这里设置ollama也是403错误, 但是同样的ollama接口和模型, 在IDE中使用是正常的

ollama启动时有没有添加环境变量 OLLAMA_ORIGINS=*

添加之后确实正常了. 非常感谢, 希望kiss越做越好

zjkal avatar Aug 10 '25 05:08 zjkal

如果是mac,可以在命令行执行后,重新打开ollama应用

launchctl setenv OLLAMA_ORIGINS 'chrome-extension://*,moz-extension://*,safari-web-extension://*'

参考文档来自: https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server

luckyops avatar Aug 10 '25 05:08 luckyops