inference
inference copied to clipboard
0.15.2版本xinference启动本地模型报错Model not found
System Info / 系統信息
宿主机:cent7.9 cuda:12.4 python3.10
Running Xinference with Docker? / 是否使用 Docker 运行 Xinfernece?
- [X] docker / docker
- [ ] pip install / 通过 pip install 安装
- [ ] installation from source / 从源码安装
Version info / 版本信息
0.15.2
The command used to start Xinference / 用以启动 xinference 的命令
xinference launch --model_path /data1/model/Qwen2.5-72B-Instruct-AWQ --model-engine vllm -n Qwen2.5-72B-Instruct-AWQ -s 72 -f awq -q int4
Reproduction / 复现过程
1。手工下载模型权重到本地
2。启动docker,进入docker内部执行命令:
xinference launch --model_path /data1/model/Qwen2.5-72B-Instruct-AWQ --model-engine vllm -n Qwen2.5-72B-Instruct-AWQ -s 72 -f awq -q int4
3、
Launch model name: Qwen2.5-72B-Instruct-AWQ with kwargs: {'model_path': '/data1/model/Qwen2.5-72B-Instruct-AWQ'}
Traceback (most recent call last):
File "/usr/local/bin/xinference", line 8, in
Expected behavior / 期待表现
期待能正常运行。 目前通过ui界面启动模型运行是正常的,自己下载后就不能启动模型。