kydbj
kydbj
这是我尝试运行单卡/多卡微调时出现的错误消息。出现了下面这个错误 > misc/cudawrap.cc:90 NCCL WARN Failed to find CUDA library in NULL (NCCL_CUDA_PATH=NULL )  然后我把cuda文件位置添加到这个 NCCL_CUDA_PATH 变量,运行单卡/多卡微调时还会出错 > misc/cudawrap.cc:90 NCCL WARN Failed to find CUDA library in /usr/local/cuda-12.0 (NCCL_CUDA_PATH=/usr/local/cuda-12.0)...
**问题描述 / Problem Description** 无法找到xinference中自定义的模型,并且提问出错 **复现问题的步骤 / Steps to Reproduce** 1. 执行 'xinference-local --host 0.0.0.0 --port 9997' 启动 xinference, 注册了 `bge-large-zh-lacal` 和 `glm4-local` 两个模型,并将两个模型启动 2. 执行 'chatchat init' ,修改了两个配置文件: basic_settings.yaml...