stevenhe1988
stevenhe1988
OK, I knew it... Just add parameters in kwargs ```python ## placeholder for additional model kwargs which might be required for some models kwargs = { "seed": 42 } ```
OK I solved it by delete and re-add the model...
@KevinHuSh 抱歉请帮忙reopen issue,我注意到仍然存在问题: 情况似乎是: 当文档解析器显示为如下时,会用GPU  当文档显示为如下时,不会使用GPU 
> 我也遇到这个问题了,测试多次后发现不要使用ollama run手动启动大模型,ollama stop 模型后,直接通过ragflow聊天的时候 让它调用的时候启动就对了。使用了GPU 感谢分享,我发现我的情况和你的不太一样..我意外的发现,我之前说的“模型加载到内存运行"这个想法其实是错误的...因为我执行的ollama ps,发现ollama没有模型在运行,我也不知道是把什么东西加载到内存里了...感觉像是 前端选择的模型 和 实际调用的模型不一致
> What's your `conf/service_conf.ymal` look like in part of `user_default_llm`?  Thanks, this is how I set. base_url is a self-build API endpoint