hejiaqi

Results 1 comments of hejiaqi

我个人测试ollama 本地模型情况, m1 pro 32G 7B 以下模型(qwen2:1.5b,granite-code:3b ,gemma:2b等)错误率非常高,经常不按提示词给出回答,几乎不可用。 7B 以上模型能按照提示词给出答案,但是我本地速度很慢。建议还是用 deepseek 这种远程模型体验更好。 而且本地模型似乎并不严格按照 openai rest 规范,暂时能用吧