[Bug] torch_npu与torch_cuda环境冲突导致包导入失败
检查清单
- [x] 1. 我已经搜索过相关问题,但未能获得预期的帮助
- [x] 2. 该问题在最新版本中尚未修复
- [x] 3. 请注意,如果您提交的BUG相关 issue 缺少对应环境信息和最小可复现示例,我们将难以复现和定位问题,降低获得反馈的可能性
- [x] 4. 如果您提出的不是bug而是问题,请在讨论区发起讨论 https://github.com/kvcache-ai/ktransformers/discussions。否则该 issue 将被关闭
- [x] 5. 为方便社区交流,我将使用中文/英文或附上中文/英文翻译(如使用其他语言)。未附带翻译的非中文/英语内容可能会被关闭
问题描述
显卡A800 80g 环境: Python 3.11.14 ktransformers 0.3.2+cu126torch29fancy torch 2.9.0+cu126 torchaudio 2.9.0+cu126 torchvision 0.24.0+cu126 分支是20251103 16:00左右拉取,先后两次拉取最新代码,仍然无法运行,报错没有setup_model_parallel,报错信息如下:
(ktransformers)_** user@user-R8488-G12:/data/wmh/ktransformers$ python -m ktransformers.local_chat --model_path /data/wmh/model/qwen14b --gguf_path ./qwen14b-GGUF
no balance_serve
2025-11-03 17:04:55,768 - INFO - flashinfer.jit: Prebuilt kernels not found, using JIT backend
found flashinfer
Traceback (most recent call last):
File "
经过排查,local_chat.py中,第16行import torch_npu报错,被异常捕捉跳过了setup_model_parallel导入,对于import torch_npu报错信息如下:
Traceback (most recent call last):
File "/data/wmh/ktransformers/ktransformers/local_chat.py", line 18, in
对于torch_npu,搜索得知这个是华为显卡的torch,跟cuda版本torch是冲突的, 现在卡在这里了
复现步骤
python -m ktransformers.local_chat --model_path /data/wmh/model/qwen14b --gguf_path ./qwen14b-GGUF
用的模型是qwen2.5 14b
环境信息
==================== 系统信息 ==================== 操作系统: Ubuntu 22.04.2 LTS 内核版本: 6.8.0-60-generic 架构: x86_64
==================== CPU 信息 ==================== Model name: Intel(R) Xeon(R) Platinum 8358 CPU @ 2.60GHz Thread(s) per core: 2 Core(s) per socket: 32 Socket(s): 2 逻辑 CPU 核心数: 128
==================== GPU 信息 ==================== NVIDIA A800-SXM4-80GB, 560.35.05, 81920, 4, 16
我也遇到了这个问题 哥们 解决了吗?
我也遇到了这个问题 哥们 解决了吗?
我也遇到了这个问题 哥们 解决了吗?
还没,导入torch_npu的地方太多了,等官方修复,或者自己把相关部分都注释掉
我也遇到了这个问题 哥们 解决了吗?
没呢,等官方修复呢,导入torch_npu的地方太多了
感谢回复
------------------ 原始邮件 ------------------ 发件人: "kvcache-ai/ktransformers" @.>; 发送时间: 2025年11月12日(星期三) 上午10:20 @.>; @.@.>; 主题: Re: [kvcache-ai/ktransformers] [Bug] torch_npu与torch_cuda环境冲突导致包导入失败 (Issue #1546)
GioGioBond left a comment (kvcache-ai/ktransformers#1546)
我也遇到了这个问题 哥们 解决了吗?
还没
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>