aaaa

Results 6 issues of aaaa

`yolov4.weights` 和 `yolov4-tiny.weights` 都不存在 `conv_24` 层, 下图的第二行代码报错,只存在`concat24`层而不是 `conv_24` 层 ![image](https://user-images.githubusercontent.com/19931702/136648747-0a0e87bd-b1fc-449e-9cba-a3a335b3c141.png) 后来我换成 `yolov3-tiny.weights` ,可以正常训练,不会报这个错,但是在训练过程中报 loss is nan, ![image](https://user-images.githubusercontent.com/19931702/136648860-b3aee413-0ad5-4269-acee-d0bfdf178e34.png)

v1 未在官方HF上找到qwen2_vl_vit_lm_rota_noshadow.mllm权重,故我根据文档重新对qwen2进行了量化和导出,但未启用rotation(报错缺少依赖),导出后在8gen3 npu下仍乱码,所以计划尝试一下v2,请问v2现在支持吗?或何时支持?

mllm team 你们好: 1. 在demo_qwen2_vl_npu.cpp 代码中引用了如下两个模型: - **qwen2_vl_vit_lm_rota_noshadow.mllm** 、 - **Qwen2-VL-2B-Instruct_vit_lm_rotated-Q40.mllm** 2. 但我看官方在HF(mllmTeam/qwen-2-vl-2b-instruct-mllm/tree/main)上发布只有如下4个模型 - [qwen2-vl-w8-i8bias-128.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen2-vl-w8-i8bias-128.mllm) - [qwen-2-vl-2b-instruct-q4_k.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen-2-vl-2b-instruct-q4_k.mllm) - [qwen-2-vl-2b-instruct-kai_q4_0_eager.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen-2-vl-2b-instruct-kai_q4_0_eager.mllm) - [qwen-2-vl-2b-instruct-kai_q4_0.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen-2-vl-2b-instruct-kai_q4_0.mllm) 3. 我们通过在8gen3 上 执行 **./demo_qwen2_vl_npu -m ../models/qwen2-vl-w8-i8bias-128.mllm** (q4_k 重命名为...

**QNN版本**:2.35.0.250530 **Hexagon SDK版本**:5.5.6.0 **Android NDK版本**:26.3.11579264 **设备SoC**: 8 gen 2 **模型**: qwen2-vl-2b **使用官方HF提供的模型**:https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/tree/main **prefill阶段**:[qwen2-vl-w8-i8bias-128.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen2-vl-w8-i8bias-128.mllm) **decode阶段**(两个尝试):[qwen-2-vl-2b-instruct-q4_k.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen-2-vl-2b-instruct-q4_k.mllm)、[qwen-2-vl-2b-instruct-kai_q4_0.mllm](https://huggingface.co/mllmTeam/qwen-2-vl-2b-instruct-mllm/blob/main/qwen-2-vl-2b-instruct-kai_q4_0.mllm) 1.当前cpu能正常跑通 2.npu输出会乱码,最终出现段错误 - **运行日志(含logcat日志)** ``` [INFO] Mon Nov 17 17:46:03 2025 [/workspace/mllm/mllm/backends/qnn/QNNUtils.cpp:12] QNN Backend Lib: libQnnHtp.so...

描述 在红魔平板(Snapdragon 8 Gen3)上使用 mllm 的 QNN NPU 路线 跑 qwen2-vl-2b(多模态)时: • CPU 路线:推理正常,输出语义正确的文本; • QNN NPU 路线: • 能跑完 vit embedding 和 prefill; • 但生成的文本是一大串乱码(中英日、符号混杂,看起来像极高温度随机采样); • 随后进程退出时是 Aborted,而不是 segfault。...

Hi, I’m seeing a license error when using the Android demo. - Repo: https://github.com/NexaAI/nexa-sdk/tree/main/bindings/android - Device: Xiaomi Pad 8 Pro - Android Gradle Plugin: 8.5.0 - Demo code: not modified...

🙋‍♀️ help & questions