Results 7 comments of winstom

@ > 新用户配置完成后仍需手动添加模型的最常见原因`user_default_llm`是,配置仅设置全局默认值,除非所有内容都已正确设置和注册,否则不会自动为新用户配置模型。要使默认模型对新用户可见,您需要: > > * 请确保您的`user_default_llm`部分已完全取消注释、正确缩进,并符合预期的 YAML 结构。每个模型(聊天、嵌入等)都应位于 下`default_models`,并且模型和工厂都必须存在于您的 中`llm_factories.json`,并包含所有必需字段(包括非空的 API 密钥或占位符)[[详情和示例](https://github.com/infiniflow/ragflow/issues/10681)]。 > * 修改后请重启后端/容器。该配置仅影响重启后创建的新用户;现有用户/租户不会追溯更新[[来源](https://github.com/infiniflow/ragflow/issues/5838)]。 > * 如果模型未出现在 UI 中或不可用,请检查模型是否已注册`llm_factories.json`,API 密钥是否为空,以及配置文件是否已正确挂载到容器内 [[故障排除](https://github.com/infiniflow/ragflow/issues/10541)]。 > * 如果您看到“模型未授权”或“没有此模型”错误,则表示即使配置文件中存在该模型,后端数据库中也未向租户注册该模型。您必须手动将该模型添加到租户记录中,或者在更新配置后创建一个新用户[[工作流程说明](https://github.com/infiniflow/ragflow/issues/10681)]。 > > 有些版本仅支持一个工厂用于所有默认模型,因此除非您使用的是支持此功能的最新版本,否则您无法混合使用聊天和嵌入的提供商 [[功能请求](https://github.com/infiniflow/ragflow/issues/8061)]。...

> * llm_factories.json Where is the llm_factories.json file?

> llm_factories.json I need to manually edit the llm_factories.json file in the directory mounted to the ragflow container before it works.

> llm_factories.json 文件通常位于 RAGFlow 项目目录下的 conf/llm_factories.json 目录中。在 Docker 或 Kubernetes 部署中,应将其挂载到容器的 /ragflow/conf/llm_factories.json 目录(如 docker-compose.yml 或 Helm chart 中所述),以便 RAGFlow 能够识别它。模型和工厂都必须在此文件中定义,user_default_llm 才能正常工作。编辑 llm_factories.json 文件后,请重启后端或容器以使更改生效——不支持热重载。如果该文件缺失或未正确挂载,即使配置加载无误,也不会为新用户配置默认模型。 [参考 1](https://github.com/infiniflow/ragflow/issues/8926) |[参考 2](https://github.com/infiniflow/ragflow/issues/10541) |[参考 3](https://github.com/infiniflow/ragflow/issues/8467) >...

> 你的配置没有生效,最常见的原因是 OpenAI-API-Compatible 工厂在 llm_factories.json 里的 "llm" 数组为空或没有正确注册模型。RAGFlow 启动时会把 llm_factories.json 里的模型同步到数据库,只有这些模型才会被自动分配给新用户。即使 service_conf.yaml 里的 user_default_llm 配置正确,如果 llm_factories.json 里没有把你的模型(如 qwen3-235b-a22b、qwen3-embedding-4b、qwen3-reranker-4b)加到 OpenAI-API-Compatible 的 "llm" 数组,新用户也不会自动获得这些模型 [参考](https://github.com/infiniflow/ragflow/issues/8467)。 > > 正确做法是: > > 1. 手动把你的模型完整添加到...

No 404 errors were found in the page test, the model is running, and curl tests also failed to detect any errors.

The host network was not used because I could not access the default port 80. Instead, the `-p` option was used for mapping, mapping ports 80, 10150, and 10151. The...