taozhiyuai

Results 117 comments of taozhiyuai

https://ollama.com/taozhiyuai/octopus-v4 @Single430

模型列表点击我添加的qwen:14b-chat-v1.5-fp16, 也不能选择

> "openai_api_key"设置为openai,api base设置为你的本地api地址,模型选择时选择gpt系列的模型,不要添加新的模型 lm studio像你说的操作可以.换成ollama server 就出现如图错误

附上我的json [config.json](https://github.com/GaiZhenbiao/ChuanhuChatGPT/files/14751779/config.json) "openai_api_key": "ollama", "default_model": "GPT3.5 Turbo", // 默认模型 "openai_api_base": "http://localhost:11434/v1", 下面的注释掉了 // "available_models": ["GPT3.5 Turbo", "GPT4 Turbo", "GPT4 Vision"], // 可用的模型列表,将覆盖默认的可用模型列表 // "extra_models": ["模型名称3", "模型名称4", ...], // 额外的模型,将添加到可用的模型列表之后

> "openai_api_key"设置为openai,api base设置为你的本地api地址,模型选择时选择gpt系列的模型,不要添加新的模型 试了很多次,总是如图错误.请问怎么办.

> ollama 应该在模型选单选 ollama 不太明白什么意思,应该如何操作?麻烦介绍清楚点.谢谢. @GaiZhenbiao 我刚才 又确认了一下.在LM STUDIO开API SERVER, 可以改API和BASE, 不管MODEL可以推理. 但是用OLLAMA后, 相同的修改配置方法, 却不可以推理.

"default_model": "ollama", // 默认模型 结果是这样的 @GaiZhenbiao

> Thank you @SamPink for fixing the issue! Done! please merge it

in China, connection without VPN.

针对STEP6, 建议改成不需要修改MODEL,就用默认的gpt3.5 turbo. LM STUDIO做服务器时, COW只需要修改API和BASE,可以工作. 每次换模型还需要改MODEL,太麻烦了. @kaina404