Hank
Hank
期待在选项里,设置OpenAI的API的时候,加上最大token与温度的配置,感谢。
我是自建的LLM服务器,跑的模型比较多,每次要换模型的时候都要手动输入模型名,可否加一个自动获取模型列表的功能,这样我只要选择就可以了。 或者可以添加多个自定义模块也行,我把我服务器上跑的LLM都添加到自定义模块里。 感谢。
**例行检查** [//]: # (方框内删除已有的空格,填 x 号) + [x] 我已确认目前没有类似 issue + [x] 我已确认我已升级到最新版本 + [x] 我已完整查看过项目 README,已确定现有版本无法满足需求 + [x] 我理解并愿意跟进此 issue,协助测试和提供反馈 + [x] 我理解并认可上述内容,并理解项目维护者精力有限,**不遵循规则的 issue 可能会被无视或直接关闭** **问题描述** 多机部署主从这样的功能主要是为了什么呢?我部了两个主从服务器,也按设置运行起来了。 但在系统设置里没看到有这些相关的设置项,这个功能只是为了能有多少API的URL吗? 目的是什么呢?解决什么问题呢?...
**例行检查** [//]: # (方框内删除已有的空格,填 x 号) + [x] 我已确认目前没有类似 issue + [x] 我已确认我已升级到最新版本 + [x] 我已完整查看过项目 README,已确定现有版本无法满足需求 + [x] 我理解并愿意跟进此 issue,协助测试和提供反馈 + [x] 我理解并认可上述内容,并理解项目维护者精力有限,**不遵循规则的 issue 可能会被无视或直接关闭** **功能描述** 很多渠道的模型更新很快,有些废除了,也有新增的,还有些改名了,但不可能每次都手动去oneapi上更新,一是不知道,二是很麻烦。为什么不直接用渠道的/models接口呢,大部分AI渠道都有这接口?可以在创建渠道的时候选择是否自动更新模型列表,这样就不用管了,定时更新,多方便呀。 **应用场景**
### Checklist - [x] 1. I have searched related issues but cannot get the expected help. - [x] 2. The bug has not been fixed in the latest version. -...
### MaxKB Version v1.10.4-lts (build at 2025-04-10T15:19, commit: a4f27249) ### Please describe your needs or suggestions for improvements  vllm是支持reranker模型的,而这个列表里没有。 ### Please describe the solution you suggest 建议加上“重排模型”的选项 ### Additional...